HDFSのJava APIのトラブルシューティング

公式文書
https://hadoop.apache.org/docs/r2.9.2/hadoop-project-dist/hadoop-common/SingleCluster.html

データノード名前ノードとの通信のための無料密な構成ログ、

SSH-keygenは- トンRSA の〜/ .ssh / id_dsa.pub >>の〜/ .ssh / authorized_keysに

SSHを確認し、パスワードを入力する必要はありません。終了するには、exitを実行するためにログイン後。

sshはlocalhostの
存在します


など/ Hadoopの/コア-site.xmlの

<設定> 
    <プロパティ> 
        <名前> fs.defaultFS </名前> 
        <値> HDFS:// 192.168.3.127:8020 </ value>の 
    </ property>の
</設定>


など/ Hadoopの/ HDFS-site.xmlの

<設定> 
    <プロパティ> 
        <名前> dfs.replication </名前> 
        <値> 1 </ value>の
    </ property>の

    <プロパティ> 
        <名前> dfs.name.dir </名前> 
        <値>のファイル:/ホーム/ HDFS /名前</ value>の
        <説明>名前ノード上存储HDFS名字空间元数据</記述> 
    </ property>の

    <プロパティ> 
        <名前> dfs.data.dir </名前> 
        <値>のファイル:/ホーム/ HDFS /データ</ value>の
        <説明>データノード上数据块的物理存储位置</記述> 
    </ property>の
</構成>


ポートを開きます

ファイアウォール-CMD --add-ポート= 8020 / TCP - 永久的な
ファイアウォールは --add-ポート= -cmd 50010 / TCPを- 永久的な
ファイアウォールは --add-ポート= -cmd 50070 / TCPを- 永久的な
ファイアウォールは -cmd -リロード

 

1. java.lang.IllegalArgumentExceptionが:URIが権限コンポーネントを持っている
の`binに/ HDFS名前ノード-format`の実装でエラーが発生しました。
HDFS-site.xml構成を確認することは正しいです

<プロパティ> 
<名前> dfs.name.dir </名前> 
<値>ファイル:/ホーム/ HDFS /名前</ value>の
<説明>は、名前ノードに格納されている名前空間のメタデータをHDFS </説明> 
</プロパティ> 

<プロパティ> 
<名前> dfs.data.dir </名前> 
<値>ファイル:/ホーム/ HDFS /データ</ value>の
<説明>データブロックのデータノードの物理的な保管場所が</説明> 
</プロパティ>

 

2. java.io.FileNotFoundException:HADOOP_HOMEとhadoop.home.dirの設定が解除されている。
解压のHadoop-2.9.2.tar.gzの到のD:\アプリ\

するSystem.setProperty(" hadoop.home.dir "" D:\\アプリケーション\\のHadoop-2.9.2 ")。

 

3. java.io.FileNotFoundException:Hadoopの実行可能ファイルが見つかりませんでした
:D:\アプリ\のHadoopの-2.9.2ビンの\ winutils.exe \ 下winutils.exe {HADOOP_HOME} \ビン\にダウンロード

 

4.アクセス許可が拒否されました:ユーザー= WRITE、iノード= "/" = XXX、アクセス:ルート:スーパーグループ:drwxr-XR-Xを

/ * * 
*アクセスなし、のHadoop Linuxのユーザー名のリモート設定解決しない
* / 
プライベート 静的 =最終文字列USER " ルート" ; 

ファイルシステムを。=ファイルシステムのGET新新(HDFS_PATHのURI)、コンフィギュレーション、USER);

5. java.net.ConnectException:接続がタイムアウト:さらなる情報与のorg.apache.hadoop.ipc.RemoteExceptionは:/hello-hadoop.mdのみ代わりminReplicationの0のノードに複製することができないファイル(= 1)。 1データノード(S)ランニングと1つのノード(複数可)は、この操作で除外されているがあります。

#のデータノードポートオープン
ファイアウォールは --add-PORT = -cmd 50010 / TCPを- 常設
ファイアウォール -cmd --reload

 

6.スキーム「HDFS」なしにファイルシステムを

 

<依存性> 
    <のgroupId> org.apache.hadoop </のgroupId> 
    <たartifactId> Hadoopの-HDFS </たartifactId> 
    <バージョン> $ {org.apache.hadoop.version} </バージョン> 
</依存> 
<依存性> 
    < groupId> org.apache.hadoop </のgroupId> 
    <たartifactId> Hadoopの共通</たartifactId> 
    <バージョン> $ {org.apache.hadoop.version} </バージョン> 
</依存> 
<依存性> 
    <のgroupId> ORG。 apache.hadoop </ groupIdを> 
    <たartifactId> Hadoopのクライアント</たartifactId> 
    <バージョン> $ {org.apache.hadoop.version} </バージョン> 
</依存関係>

 

質問があるメッセージ交換を残してください。

技術交流グループ:282 575 808

--------------------------------------

免責事項:許可なしに元の記事を複製禁止されています!

--------------------------------------

おすすめ

転載: www.cnblogs.com/xxoome/p/11233794.html