ディレクトリ
2.1 HDFSクライアントオブジェクトを作成し、フォルダーの作成をテストする
クライアント環境
以前のブログではHDFSシェルの操作について説明しました。レビュー:bin / hadoop fs-commandまたはbin / hdfs dfs-commandを使用してください。コマンドは基本的にLinuxコマンドと同じです。方法ですが、別の方法があります。つまり、コード操作を使用するクライアントモードです。クライアント操作を使用するという考えも非常に単純です。実際、クライアントオブジェクトを取得し、オブジェクトとカプセル化されたメソッドを通じてHDFSクラスターを操作する必要があります。理解しても大丈夫です。
1.1環境変数を設定する
次に示すように、ローカルマシンの環境変数を設定します。
実際、これはJDKの環境変数の構成とほとんど同じです。まずHOMEを構成してから、パスにHADOOPを追加します。構成後、cmdウィンドウでhadoop -version testと入力します。外観が次の図のようになっている場合は、hadoopの結果を構成します。
1.2日食/ IDEAの準備
実際、EclipseはIDEAに似ていますが、多くの人々はIDEAを使いやすいと感じます。主な理由は、それらの人々のほとんどが作業していることです。IDEAコードヒントとデバッグは、Eclipseよりも実際に優れていますが、IDEA実行はEclipseより多くのリソースを消費します。コンピュータのメモリが8gを超えない場合、IDEAは本当に推奨されておらず、IDEAは一連のクラックを実行する必要があります。クラックすることは不可能ではありません。私はソフトウェアをクラックするのが好きな人ですが、クラックされたソフトウェアは確かに安定性が低く、毎日の日食で十分ですもちろんIDEAの方が優れています。
- Eclipseで新しいMavenプロジェクトを作成し、プロジェクトのpom.xmlファイルに依存関係を追加します。メイベンについて言うまでもありません。
<dependencies>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>RELEASE</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-core</artifactId>
<version>2.8.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.7.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.7.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>2.7.2</version>
</dependency>
<dependency>
<groupId>jdk.tools</groupId>
<artifactId>jdk.tools</artifactId>
<version>1.8</version>
<scope>system</scope>
<systemPath>${JAVA_HOME}/lib/tools.jar</systemPath>
</dependency>
</dependencies>
上記の設定は一般的に知られています。junittest、hadoop、インポートエラーが報告された場合のヒントです。mavenのデフォルトのjdkは1.5で、最後の段落でjdk1.8を指定しているためです。
- 別の問題があります:日食/ IDEAコンソールに次の情報が表示される場合。src / main / resourcesディレクトリで、log4j.propertiesという名前の新しいファイルを作成します。このファイルによって追加されるコンテンツを次の図に示します。
1.log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.Shell).
2.log4j:WARN Please initialize the log4j system properly.
3.log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
このように、Eclipse / IDEAはログを正しく印刷できます。
HDFSの2つの特定のAPI操作
特に操作を開始する前に、まずアイデアを整理します。HDFSを操作するための操作は何ですか?それは、表示、アップロード、ダウンロードなどに他なりません。最初に、クライアントオブジェクトが必要です。次に、パッケージ化されたメソッドが必要です。次に、オブジェクト名メソッドを使用してクラスターの操作を完了します。プロセス全体は次のようになります。アイデアを整理したら、プログラミングは簡単です。
2.1 HDFSクライアントオブジェクトを作成し、フォルダーの作成をテストする
HDFSはファイルシステムです。ファイルシステムオブジェクトを作成してクラスターを操作できます。コードを説明してください。これは主にFileSystem.get()メソッドによって作成されます。このメソッドには3つのパラメーターが必要です。1つはHDFSクラスターアドレスですnew URI( "hdfs:// hadoop102:9000")、2。構成、3。ユーザー名。独自のクラスターの状況に応じて書き込みます。これらのパラメーターがある場合、ファイルシステムオブジェクトがfsを作成します。fs.mkdirs()メソッドを呼び出して、クラスターにディレクトリを作成します。最後に、このオブジェクトを閉じます。
概要:HDFSクラスターを操作するには3つのステップしかないことを忘れないでください。1.オブジェクトを取得します(FileSystem.get)2.オブジェクト操作を使用します3.リソースを閉じます
public class HdfsClient{
@Test
public void testMkdirs() throws IOException, InterruptedException, URISyntaxException{
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");
// 2 创建目录
fs.mkdirs(new Path("/1108/daxian/banzhang"));
// 3 关闭资源
fs.close();
}
}
2.2テストファイルのアップロード
上記と同じ3つの手順に従いますが、特定の操作方法のみを考慮する必要があります。アップロードはcopyFromLocalFileであり、シェル操作と同じです。
@Test
public void testCopyFromLocalFile() throws IOException, InterruptedException, URISyntaxException {
// 1 获取文件系统
Configuration configuration = new Configuration();
configuration.set("dfs.replication", "2");
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");
// 2 上传文件
fs.copyFromLocalFile(new Path("e:/banzhang.txt"), new Path("/banzhang.txt"));
// 3 关闭资源
fs.close();
}
2.3テストファイルのダウンロード
@Test
public void testCopyToLocalFile() throws IOException, InterruptedException, URISyntaxException{
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");
// 2 执行下载操作
// boolean delSrc 指是否将原文件删除
// Path src 指要下载的文件路径
// Path dst 指将文件下载到的路径
// boolean useRawLocalFileSystem 是否开启文件校验
fs.copyToLocalFile(false, new Path("/banzhang.txt"), new Path("e:/banhua.txt"), true);
// 3 关闭资源
fs.close();
}
2.4テスト削除フォルダー
@Test
public void testDelete() throws IOException, InterruptedException, URISyntaxException{
// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");
// 2 执行删除
fs.delete(new Path("/0508/"), true);
// 3 关闭资源
fs.close();
}
2.5テストビューファイルの詳細
ファイルの詳細を表示するには、まだ説明が必要です。使用されるメソッドは、イテレータイテレータを返すlistFilesであるため、イテレータをトラバースするには、ファイルの長さ、名前、権限などの情報を表示できます。保存されているブロック情報を表示するには、次のコマンドを使用します。 getBlockLocationsは配列オブジェクトを取得し、配列オブジェクトを反復処理して、ブロックストレージ情報を表示します。これは少し複雑です。
@Test
public void testListFiles() throws IOException, InterruptedException, URISyntaxException{
// 1获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");
// 2 获取文件详情
RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"), true);
while(listFiles.hasNext()){
LocatedFileStatus status = listFiles.next();
// 输出详情
// 文件名称
System.out.println(status.getPath().getName());
// 长度
System.out.println(status.getLen());
// 权限
System.out.println(status.getPermission());
// 分组
System.out.println(status.getGroup());
// 获取存储的块信息
BlockLocation[] blockLocations = status.getBlockLocations();
for (BlockLocation blockLocation : blockLocations) {
// 获取块存储的主机节点
String[] hosts = blockLocation.getHosts();
for (String host : hosts) {
System.out.println(host);
}
}
System.out.println("---------------------");
}
// 3 关闭资源
fs.close();
}
2.6フォルダーかファイルかを判別する
@Test
public void testListStatus() throws IOException, InterruptedException, URISyntaxException{
// 1 获取文件配置信息
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");
// 2 判断是文件还是文件夹
FileStatus[] listStatus = fs.listStatus(new Path("/"));
for (FileStatus fileStatus : listStatus) {
// 如果是文件
if (fileStatus.isFile()) {
System.out.println("f:"+fileStatus.getPath().getName());
}else {
System.out.println("d:"+fileStatus.getPath().getName());
}
}
// 3 关闭资源
fs.close();
}
今日は時間が限られているので、ここに書くだけです。