CDH | Sparkアップグレード

 

アップグレードされたSparkのアップグレード

CDH5.12.1クラスターでは、デフォルトでインストールされているSparkはバージョン1.6であり、ここでSpark2.1バージョンにアップグレードする必要があります。公式ドキュメントを調べたところ、Spark1.6と2.xを並行してインストールできることがわかりました。つまり、デフォルトの1.6バージョンを削除せずに2.xバージョンを直接インストールでき、使用するポートが異なります。

Clouderaは、Apache Spark 2の概要をリリースしました(インストール方法とパーセルパッケージリポジトリはここにあります)

Clouderaの公式Webサイトでは、関連する区画のオフラインインストールパッケージをダウンロードできます。

https://www.cloudera.com/documentation/spark2/latest/topics/spark2_installing.html

Cloudera Managerと5.12.0バージョンの紹介:

https://www.cloudera.com/documentation/enterprise/latest/topics/cm_ig_parcels.html#cmug_topic_7_11_5__section

 アップグレードプロセス

1オフラインパッケージのダウンロード

1)必要なソフトウェア:http : //archive.cloudera.com/spark2/csd/

   

2)Parcelsパッケージのダウンロードアドレス:http : //archive.cloudera.com/spark2/parcels/2.1.0.cloudera1/

 

2オフラインパッケージのアップロード

1)SPARK2_ON_YARN-2.1.0.cloudera1.jarファイルを/ opt / cloudera / csd /以下にアップロードします

2)SPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904-el6.parcelおよびSPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904-el6.parcel.sha1にファイルをアップロードします/ opt / cloudera / parcel-repo /

3)SPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904-el6.parcel.sha1の名前をSPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904-el6.parcelに変更します。 .sha

[ルート@ hadoop101小包-レポ]#mvのは/ opt / Clouderaの/小包-レポ/ SPARK2- 2.10 .cloudera1- 1 .cdh5。7.0 .p0。120904 -el6.parcel.sha1 / opt / cloudera / parcel-repo / SPARK2- 2.10 .cloudera1- 1 .cdh5。7.0 .p0。120904 -el6.parcel.sha

 

[kris @ hadoop101 parcel- repo] $ ll 
合計2673860 
-rw-r--r-- 1 kris kris   364984320 2019 7月   2日   APACHE_PHOENIX- 4.140 -cdh5。14.2 .p0。3 - el7.parcel
 -rw-r--r-- 1 kris kris           41 Jul   2 2019 APACHE_PHOENIX- 4.140 -cdh5。14.2 .p0。3 - el7.parcel.sha
 -rw-r ----- 1ルートルート               14114 7月    2   2019 APACHE_PHOENIX- 4.140 -cdh5。14.2 .p0。3 - el7.parcel.torrent
 -rw-r--r-- 1 cloudera-scm cloudera-scm 2108071134 2019年 6月27日   CDH- 5.142 - 1 .cdh5。14.2 .p0。3 - el7.parcel
 -rw-r--r-- 1 cloudera-scm cloudera-scm          41 Jun 27 2019 2019 CDH- 5.142 - 1 .cdh5。14.2 .p0。  3 - el7.parcel.sha
 -rw-r ----- 1 cloudera-scm cloudera-scm       80586 2019年 6月27日   CDH- 5.142 - 1 .cdh5。14.2 .p0。3 - el7.parcel.torrent
 -rw-r--r-- 1 cloudera-scm cloudera-scm    72851219 2019年 6月29日 KAFKA- 3.11 - 1.31.1 .p0。2 - el7.parcel
 -rw-r--r-- 1 cloudera-scm cloudera-scm          41  2019年 6月29日   KAFKA- 3.11 - 1.31.1 .p0。2 - el7.parcel.sha
 -rw-r ----- 1ルートルート                2940 2019年 6月29日 KAFKA- 3.11 - 1.31.1 .p0。2 - el7.parcel.torrent
 -rw-r--r-- 1 cloudera-scm cloudera-scm       74062 2019年 6月27日manifest.json
 -rw-r--r-- 1 cloudera-scm cloudera-scm      191904064ジュン29   2019年 SPARK2- 2.30 .cloudera4- 1 .cdh5。13.3 .p0。611179 - el7.parcel
 -rw-r--r-- 1 cloudera-scm cloudera-scm          41 Oct   5   2018 SPARK2- 2.30 .cloudera4- 1 .cdh5。13.3 .p0。611179 - el7.parcel.sha
 -rw-r ----- 1 cloudera-scm cloudera-scm        7521 2019年 6月29日   SPARK2- 2.30 .cloudera4- 1 .cdh5。13.3 .p0。611179 - el7.parcel.torrent 
[kris @ hadoop101 parcel -repo] $ pwd 
/ home / kris / apps / usr / webserver / cloudera / parcel- repo 

[kris @ hadoop101 csd] $ pwd 
/ home / kris / apps / usr / webserver / cloudera / csd 
[kris @ hadoop101 csd] $ ll 
合計28 
-rw-r--r-- 1 cloudera-scm cloudera-scm   5670 Feb 22   2018 2018 KAFKA- 1.20 .jar
 -rw-r--r-- 1 cloudera-scm cloudera-scm 19037 10月  5   2018 SPARK2_ON_YARN- 2.30 .cloudera4.jar 
[kris @ hadoop101 csd] $ ll 
合計28 
-rw-r--r-- 1 cloudera-scm cloudera-scm   5670 2018年 2月22日   KAFKA- 1.20 .jar
 -rw-r--r-- 1 cloudera-scm cloudera-scm 19037 2018年 10月   5日 SPARK2_ON_YARN- 2.30 .cloudera4.jar  

 

 ページ操作

   区画を更新

    cmホームページで[小包]をクリックし、クリックして新しい小包を確認します。

クリックして割り当て、クリックしてアクティブ化、ホームページに戻り、クリックしてサービスを追加

Spark2がない場合は、サーバーを再起動します。

[root @ hadoop101〜]# / opt / module / cm / cm- 5.121 /etc/init.d/cloudera-scm-server restart

依存関係のセットを選択する

 

 役割の割り当て、展開、起動

注:私はここでエラーを報告しました:クライアント構成(id = 12)は1で終了、期待値は0 
1です)問題の原因:CMをインストールしたSparkがJavaを見つけるために環境変数に移動しないため、最終的に理由が見つかりました。 CMプロファイルへのJavaパス追加
 2を再起動CDHに分解能1(必要性)): 
[ルート@ hadoop101のJava]#vimのは/ opt /モジュール/ cmで/ CM- 5.121 / lib64に/ CMF /サービス/クライアント/デプロイ- CCSH 
ファイルの最後に追加
JAVA_HOME =は/ opt /モジュール/ jdk1を。8 .0_104 
輸出JAVA_HOME =は/ opt /モジュール/ jdk1。8 .0_104
 3 CDHを再起動することなく)溶液2():
ビューは/ opt /モジュール/ CM&LT / CM- 5.12。1/ lib64に/ CMF /サービス/共通/ Clouderaの-config設定。SH 
我々が指定する必要があるので、検索java8のホームディレクトリは、あなたは、システムのデフォルトJAVA_HOME環境変数を使用しないCDHでしょうが、BIGTOPに従って管理されては/ usr / javaのjdkを/デフォルトディレクトリにインストールします。もちろん、我々は、/ opt /モジュール/ jdk1を持っている。8 過去への接続を作成するので、.0_104下jdkのインストール
[ルート@ hadoop101〜]#ます。mkdirは/ usr / Javaの
[ルート@ hadoop101〜]#LN -s / OPT / Module1を/ jdk1。。8 .0_104 /は/ usr / Javaの/ デフォルトの

[hadoop102ルート@〜]#ます。mkdirは/ usr / Javaの
[hadoop102ルート@〜]#LN -sは/ opt / Module1を/ jdk1。。8 .0_104 /は/ usr / Javaの/ デフォルトの

[hadoop103ルート@〜]#ます。mkdir/ usr / Javaの
[ルート@ hadoop103〜]#のLN -sは/ opt /モジュール/ jdk1。8 .0_104 /は/ usr / Javaの/ デフォルト

3 )ソリューション3(必要性再起動のCDH):
、hadoop102、hadoop103 3をhadoop101見つけますマシン構成、Javaホームディレクトリの構成

 

 

 

コマンドラインビューコマンド

[hdfs @ hadoop101〜] $ spa 
spark2 -shell spark2-submit spark-shell spark-submit spax

 

おすすめ

転載: www.cnblogs.com/shengyang17/p/12750518.html