エントリーからマスターシリーズまでのHadoop --5。HDFS API

ディレクトリ

クライアント環境

1.1環境変数を設定する

1.2日食/ IDEAの準備

HDFSの2つの特定のAPI操作

2.1 HDFSクライアントオブジェクトを作成し、フォルダーの作成をテストする

2.2テストファイルのアップロード

2.3テストファイルのダウンロード

2.4テスト削除フォルダー

2.5テストビューファイルの詳細

2.6フォルダーかファイルかを判別する


クライアント環境

以前のブログではHDFSシェルの操作について説明しました。レビュー:bin / hadoop fs-commandまたはbin / hdfs dfs-commandを使用してください。コマンドは基本的にLinuxコマンドと同じです。方法ですが、別の方法があります。つまり、コード操作を使用するクライアントモードです。クライアント操作を使用するという考えも非常に単純です。実際、クライアントオブジェクトを取得し、オブジェクトとカプセル化されたメソッドを通じてHDFSクラスターを操作する必要があります。理解しても大丈夫です。

1.1環境変数を設定する

次に示すように、ローカルマシンの環境変数を設定します。

実際、これはJDKの環境変数の構成とほとんど同じです。まずHOMEを構成してから、パスにHADOOPを追加します。構成後、cmdウィンドウでhadoop -version testと入力します。外観が次の図のようになっている場合は、hadoopの結果を構成します。

1.2日食/ IDEAの準備

実際、EclipseはIDEAに似ていますが、多くの人々はIDEAを使いやすいと感じます。主な理由は、それらの人々のほとんどが作業していることです。IDEAコードヒントとデバッグは、Eclipseよりも実際に優れていますが、IDEA実行はEclipseより多くのリソースを消費します。コンピュータのメモリが8gを超えない場合、IDEAは本当に推奨されておらず、IDEAは一連のクラックを実行する必要があります。クラックすることは不可能ではありません。私はソフトウェアをクラックするのが好きな人ですが、クラックされたソフトウェアは確かに安定性が低く、毎日の日食で十分ですもちろんIDEAの方が優れています。

  • Eclipseで新しいMavenプロジェクトを作成し、プロジェクトのpom.xmlファイルに依存関係を追加します。メイベンについて言うまでもありません。
<dependencies>
		<dependency>
			<groupId>junit</groupId>
			<artifactId>junit</artifactId>
			<version>RELEASE</version>
		</dependency>
		<dependency>
			<groupId>org.apache.logging.log4j</groupId>
			<artifactId>log4j-core</artifactId>
			<version>2.8.2</version>
		</dependency>
		<dependency>
			<groupId>org.apache.hadoop</groupId>
			<artifactId>hadoop-common</artifactId>
			<version>2.7.2</version>
		</dependency>
		<dependency>
			<groupId>org.apache.hadoop</groupId>
			<artifactId>hadoop-client</artifactId>
			<version>2.7.2</version>
		</dependency>
		<dependency>
			<groupId>org.apache.hadoop</groupId>
			<artifactId>hadoop-hdfs</artifactId>
			<version>2.7.2</version>
		</dependency>
		<dependency>
			<groupId>jdk.tools</groupId>
			<artifactId>jdk.tools</artifactId>
			<version>1.8</version>
			<scope>system</scope>
			<systemPath>${JAVA_HOME}/lib/tools.jar</systemPath>
		</dependency>
</dependencies>

上記の設定は一般的に知られています。junittest、hadoop、インポートエラーが報告された場合のヒントです。mavenのデフォルトのjdkは1.5で、最後の段落でjdk1.8を指定しているためです。

  • 別の問題があります:日食/ IDEAコンソールに次の情報が表示される場合。src / main / resourcesディレクトリで、log4j.propertiesという名前の新しいファイルを作成します。このファイルによって追加されるコンテンツを次の図に示します。
1.log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.Shell).  
2.log4j:WARN Please initialize the log4j system properly.  
3.log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

このように、Eclipse / IDEAはログを正しく印刷できます。

HDFSの2つの特定のAPI操作

特に操作を開始する前に、まずアイデアを整理します。HDFSを操作するための操作は何ですか?それは、表示、アップロード、ダウンロードなどに他なりません。最初に、クライアントオブジェクトが必要です。次に、パッケージ化されたメソッドが必要です。次に、オブジェクト名メソ​​ッドを使用してクラスターの操作を完了します。プロセス全体は次のようになります。アイデアを整理したら、プログラミングは簡単です。

2.1 HDFSクライアントオブジェクトを作成し、フォルダーの作成をテストする

HDFSはファイルシステムです。ファイルシステムオブジェクトを作成してクラスターを操作できます。コードを説明してください。これは主にFileSystem.get()メソッドによって作成されます。このメソッドには3つのパラメーターが必要です。1つはHDFSクラスターアドレスですnew URI( "hdfs:// hadoop102:9000")、2。構成、3。ユーザー名。独自のクラスターの状況に応じて書き込みます。これらのパラメーターがある場合、ファイルシステムオブジェクトがfsを作成します。fs.mkdirs()メソッドを呼び出して、クラスターにディレクトリを作成します。最後に、このオブジェクトを閉じます。

概要:HDFSクラスターを操作するには3つのステップしかないことを忘れないでください。1.オブジェクトを取得します(FileSystem.get)2.オブジェクト操作を使用します3.リソースを閉じます

public class HdfsClient{	
@Test
public void testMkdirs() throws IOException, InterruptedException, URISyntaxException{
		
	// 1 获取文件系统
	Configuration configuration = new Configuration();
	FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");	
	// 2 创建目录
	fs.mkdirs(new Path("/1108/daxian/banzhang"));
	// 3 关闭资源
	fs.close();
	}
}

2.2テストファイルのアップロード

上記と同じ3つの手順に従いますが、特定の操作方法のみを考慮する必要があります。アップロードはcopyFromLocalFileであり、シェル操作と同じです。

@Test
public void testCopyFromLocalFile() throws IOException, InterruptedException, URISyntaxException {

	// 1 获取文件系统
	Configuration configuration = new Configuration();
	configuration.set("dfs.replication", "2");
	FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");
	// 2 上传文件
	fs.copyFromLocalFile(new Path("e:/banzhang.txt"), new Path("/banzhang.txt"));
	// 3 关闭资源
	fs.close();
}

2.3テストファイルのダウンロード

@Test
public void testCopyToLocalFile() throws IOException, InterruptedException, URISyntaxException{

	// 1 获取文件系统
	Configuration configuration = new Configuration();
	FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");
	// 2 执行下载操作
	// boolean delSrc 指是否将原文件删除
	// Path src 指要下载的文件路径
	// Path dst 指将文件下载到的路径
	// boolean useRawLocalFileSystem 是否开启文件校验
	fs.copyToLocalFile(false, new Path("/banzhang.txt"), new Path("e:/banhua.txt"), true);	
	// 3 关闭资源
	fs.close();
}

2.4テスト削除フォルダー

@Test
public void testDelete() throws IOException, InterruptedException, URISyntaxException{

	// 1 获取文件系统
	Configuration configuration = new Configuration();
	FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");
	// 2 执行删除
	fs.delete(new Path("/0508/"), true);	
	// 3 关闭资源
	fs.close();
}

2.5テストビューファイルの詳細

ファイルの詳細を表示するには、まだ説明が必要です。使用されるメソッドは、イテレータイテレータを返すlistFilesであるため、イテレータをトラバースするには、ファイルの長さ、名前、権限などの情報を表示できます。保存されているブロック情報を表示するには、次のコマンドを使用します。 getBlockLocationsは配列オブジェクトを取得し、配列オブジェクトを反復処理して、ブロックストレージ情報を表示します。これは少し複雑です。

@Test
public void testListFiles() throws IOException, InterruptedException, URISyntaxException{

	// 1获取文件系统
	Configuration configuration = new Configuration();
	FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei"); 
	// 2 获取文件详情
	RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"), true);	
	while(listFiles.hasNext()){
		LocatedFileStatus status = listFiles.next();
		// 输出详情
		// 文件名称
		System.out.println(status.getPath().getName());
		// 长度
		System.out.println(status.getLen());
		// 权限
		System.out.println(status.getPermission());
		// 分组
		System.out.println(status.getGroup());
			
		// 获取存储的块信息
		BlockLocation[] blockLocations = status.getBlockLocations();
			
		for (BlockLocation blockLocation : blockLocations) {
				
			// 获取块存储的主机节点
			String[] hosts = blockLocation.getHosts();
				
			for (String host : hosts) {
				System.out.println(host);
			}
		}
			
		System.out.println("---------------------");
	}

        // 3 关闭资源
        fs.close();
}

2.6フォルダーかファイルかを判別する

@Test
public void testListStatus() throws IOException, InterruptedException, URISyntaxException{
		
	// 1 获取文件配置信息
	Configuration configuration = new Configuration();
	FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "wanglei");
		
	// 2 判断是文件还是文件夹
	FileStatus[] listStatus = fs.listStatus(new Path("/"));
		
	for (FileStatus fileStatus : listStatus) {
		
		// 如果是文件
		if (fileStatus.isFile()) {
				System.out.println("f:"+fileStatus.getPath().getName());
			}else {
				System.out.println("d:"+fileStatus.getPath().getName());
			}
		}
		
	// 3 关闭资源
	fs.close();
}

今日は時間が限られているので、ここに書くだけです。

 

 

 

 

 

元の記事を111個公開 60のような 70,000 +ビュー

おすすめ

転載: blog.csdn.net/Haidaiya/article/details/84946742