HDFS操作で主に馴染みの今週。
Hadoopをインストールした仮想マシンの後、私は次のHBaseの学習のための道を開く理解するための一連の操作の下で、独自のファイルシステム、HDFSとMapReduceのを必要としています。HBaseのは、HDFSのファイル・ストレージ・システムであるため、データ処理は、多くの操作では、MapReduceのあるHDFSの多くにで動作する必要があるので、私は、実際の機器と良い日食以上のプラグイン設定を設定する必要があります。
最初は、Hadoopのを開始することです。
私は、仮想マシンのIPにはlocalhostをテストするために使用され、以前のUbuntuのファイアウォールを置くコア-site.xmlのがオフになったときにHadoopを設定する前に、実際のマシン上で日食を確実にアクセスすることができ、存在することになります
java.lang.IllegalArgumentExceptionが:間違ったFS:HDFS://192.168.0.107:9000 /ユーザー/ Hadoopの/ test.txtという、予想:HDFS:9000://192.168.0.106
状況。
次に日食では、Javaプロジェクトを作成することができ、インポートHadoopの共通-2.7.7.jarとHadoopのHDFS--2.7.7.jarは、(また、2つのJARパッケージがlibが依存してインポートする必要がありますが、幸い両方に依存)とほぼ同じで、その後、テストケースを記述します。
パッケージ第3章; 輸入org.apache.hadoop.conf.Configuration。 輸入org.apache.hadoop.fs.FileSystem; 輸入org.apache.hadoop.fs.Path。 パブリック クラスのテスト{ 公共 静的 ボイドメイン(文字列[]引数) { 試みる{ 文字列のファイル名 = "HDFS://192.168.0.106:9000 /ユーザ/ Hadoopの/ test.txtのを" 。 設定のconf = 新しいコンフィギュレーション(); ファイルシステムFS = FileSystem.get(CONF)。 もし(fs.exists(新しいパス(ファイル名))){ System.out.println( "ファイルが存在" ); } 他{ するSystem.out.println( "ファイルが存在しない" ); } } キャッチ(例外e){ e.printStackTrace();} } }
Hadoopのもbinフォルダに2つのコア・コンフィギュレーション・ファイルを結合する必要があります -
次に、あなたがスムーズに実行することができます。
Hadoopのにアクセスするための主要なテスト実マシンの仮想マシンのHBaseが深まるを学習した後、HDFSの操作で使用された後、日食のプラグインのMapReduceとHDFSは、操作のいくつかの基本的なモードです。