Spark で発生した問題と解決策 (Xiaobi に適したもの)

今日が終わる前に:

皆様、新年明けましておめでとうございます!

これらは、私が最近 Spark を学習する際に遭遇した問題と解決策です (Xiaobai に適しています)

1. Hadoop クラスターを開くにはどうすればよいですか?

答え:

Hadoop クラスターを開くには、start-all.sh コマンドを入力してすべてを開くことができます。

また、糸クラスター (リソース管理を担当) を開いてコマンド start-yarn.sh を入力するなど、段階的に開くこともできます。

次に、hdfs クラスター (分散ストレージ システム) を開き、コマンド start-dfs.sh を入力します。

2. pychark ローカル モードを開くにはどうすればよいですか (この場合、クラスターではなくスタンドアロン操作です)。

答え:

/export/server/spark/bin に切り替えます (パスは人によって異なります)

ディレクトリ入力コマンド: ./pyspark

「node1:4040」と入力してWebページを開いて、プログラムの実行ステータスを表示できます。

このコマンドを入力するだけで、デフォルトでスタンドアロン モードが開きます。

pyspark を開きたい場合は、まず Hadoop クラスターを開く必要があります。

3. pychark (Spark クラスターで実行) を開くにはどうすればよいですか?

答え:

pychark を開いてクラスター上で実行する場合は、クラスターのアドレスを入力する必要があります (私が今学習していることなど)。クラスターを開いた後、Web ページ「node1:8080」を開き、上記のアドレスをコピーして次のように入力します。ターミナルのコマンド: ./pyspark --master spar:/ /node1:7077

4. 糸の履歴サーバーを開くにはどうすればよいですか?

答え:

コマンドを入力します: mr-jobhistory-daemon.sh start Historyserver

Spark 履歴サーバーを開きたい場合は、(Spark ディレクトリ内で) コマンド sbin/start-history-server.sh を入力します。

5. Linux クラスターインタープリターを使用して Python コードをリモートで解釈するように SSH を設定するにはどうすればよいですか?

答え:

まず対応するノードとユーザーを接続し、次にユーザーのパスワードを入力します

次に、Linux の Python インタプリタのアドレスを入力すると、アプリケーションの確認が成功します。前提として、pycharm にはプロフェッショナル版が必要です (クラック版も利用可能です)。

6. Spark アプリケーションを提出するにはどうすればよいですか?

答え:

プログラム コードをサーバーにアップロードし、spark-submit クライアント ツールを通じて送信します。

知らせ:

  1. コード内にマスターを設定しないでください。コードに基づいてspark-submit送信ツールを設定した場合、無効になります。

  1. プログラムをクラスターに送信して実行する場合、読み取りファイルは、HDFS へのアップロードなど、各マシンがアクセスできるアドレスである必要があります。Linux ローカル マシン上の場合は、各マシンにこのファイルが必要です。

やっと:

皆様が 2023 年の旧正月を幸せに過ごされることを願っています。新しい年が始まり、私たちは一緒に新しい旅に行きます。大蔵紅の「ウサギ」、お金の「ウサギ」は錦のように、眉毛の「ウサギ」の精神、「ウサギ」の健康を願っています。新年には、お金の「うさぎ」が心配なく、お金の「うさぎ」が錦のように、「うさぎ」が突然お金持ちになり、「うさぎ」が大きく発展し、「うさぎ」に良いことが起こりますように。

さて、今日の共有はここまでです。不明な点や間違ったことを書いた場合は、アドバイスをお願いします。

プライベートメッセージ、コメントしてください!

おすすめ

転載: blog.csdn.net/hhR888888/article/details/128751026