まず、Linuxでローカルにtxt1.txt、txt2.txt、txt3.txtの3つのテキストファイルを作成します。ファイルにコンテンツを
自由に入力します
。gedittxt1.txtgedittxt2.txt
gedit txt3.txt
(1)ディレクトリを作成し(-pは親ディレクトリが作成されることを意味します)、/ home / studentnumberディレクトリを作成します。
最初にサービスを開始します:start-dfs.sh start-yarn.sh
hadoop fs -mkdir -p / home / 2019443719
(2)HDFSファイルの下の/ home / student IDという名前のフォルダー内のファイルを一覧表示します(-Rはすべてのサブディレクトリを一覧表示することを意味します)
(3)ファイルをアップロードし、ローカルディレクトリを変更しますアップロードtxt1.txtファイルをHDFSの/ home / studentnumberディレクトリに追加します。
hadoop fs -copyFromLocal ./txt1.txt / home / 2019443719
(4)ローカルファイルtxt2.txtとtxt3.txtがアップロードされ、同時にHDFSの/ home / studentnumberディレクトリに移動されます。
hadoop fs -copyFromLocal ./txt2.txt ./txt3.txt / home / 2019443719
(5)ファイルをダウンロードし、HDFSのtxt1.txtファイルをローカルシステムの/ home / hadoop / tmpディレクトリにコピーします。(最初にローカルでtmpを作成します)
mkdir tmp
hadoop fs -get /home/2019443719/txt1.txt ./tmp
ファイルの内容を表示し、HDFSの下でtxt2.txtファイルの内容を表示します
。hadoopfs-cat / home / 2019443719 / txt1 .TXT
(8)hdfsの下のtxt3.txtファイルの変更を監視します
hadoop fs -tail -f /home/2019443719/txt3.txt(9
)別のターミナルを開き、hdfs
cat >> txt4.txt
hadoop fs -appendToFile ./txt4の下のtxt3.txtに「thisislogmessage」というメッセージを追加します。 txt /home/2019443719/txt3.txt(10
)ドキュメントを削除し、HDFSでtxt3.txtという名前のファイルを削除します(パラメーターrは再帰的削除です)
hadoop fs -rm -r /home/2019443719/txt3.txt