hdfsシェルコマンド

まず、Linuxでローカルにtxt1.txt、txt2.txt、txt3.txtの3つのテキストファイルを作成します。ファイルにコンテンツを
自由に入力します
。gedittxt1.txtgedittxt2.txt
gedit txt3.txt ここに画像の説明を挿入
(1)ディレクトリを作成し(-pは親ディレクトリが作成されることを意味します)、/ home / studentnumberディレクトリを作成します。
最初にサービスを開始します:start-dfs.sh start-yarn.sh

hadoop fs -mkdir -p / home / 2019443719
ここに画像の説明を挿入
(2)HDFSファイルの下の/ home / student IDという名前のフォルダー内のファイルを一覧表示します(-Rはすべてのサブディレクトリを一覧表示することを意味します)
ここに画像の説明を挿入
(3)ファイルをアップロードし、ローカルディレクトリを変更しますアップロードtxt1.txtファイルをHDFSの/ home / studentnumberディレクトリに追加します。

hadoop fs -copyFromLocal ./txt1.txt / home / 2019443719
ここに画像の説明を挿入

(4)ローカルファイルtxt2.txtとtxt3.txtがアップロードされ、同時にHDFSの/ home / studentnumberディレクトリに移動されます。

hadoop fs -copyFromLocal ./txt2.txt ./txt3.txt / home / 2019443719
ここに画像の説明を挿入
(5)ファイルをダウンロードし、HDFSのtxt1.txtファイルをローカルシステムの/ home / hadoop / tmpディレクトリにコピーします。(最初にローカルでtmpを作成します)
mkdir tmp
hadoop fs -get /home/2019443719/txt1.txt ./tmp
ここに画像の説明を挿入
ファイルの内容を表示し、HDFSの下でtxt2.txtファイルの内容を表示します
。hadoopfs-cat / home / 2019443719 / txt1 .TXT

ここに画像の説明を挿入
(8)hdfsの下のtxt3.txtファイルの変更を監視します

hadoop fs -tail -f /home/2019443719/txt3.txt(9
ここに画像の説明を挿入
)別のターミナルを開き、hdfs
cat >> txt4.txt
hadoop fs -appendToFile ./txt4の下のtxt3.txtに「thisislogmessage」というメッセージを追加します。 txt /home/2019443719/txt3.txt(10
ここに画像の説明を挿入
)ドキュメントを削除し、HDFSでtxt3.txtという名前のファイルを削除します(パラメーターrは再帰的削除です)

hadoop fs -rm -r /home/2019443719/txt3.txt
ここに画像の説明を挿入

おすすめ

転載: blog.csdn.net/qq_48657881/article/details/111682814