hadoop跑自带的wordcount程序

首先查看hadoop进程。

jps

 

说明只有一个进程,hadoop没启动

启动hadoop进程

start-dfs.sh

start-yarn.sh

出现如下进程说明hadoop启动成功

 

在如下目录创建一个data.txt文件

里面随便输入一些英文字符。就像我刚才输入的一样

进入hadoop目录

.在云端创建一个/data/input的文件夹结构

bin/hdfs dfs -mkdir -p /data/input

把data.txt文件上传到云端,

bin/hdfs dfs -put data.txt /data/input

查看云端的/data/input文件夹下面有哪些文件

bin/hdfs dfs -ls /data/input

这个就是我们上传的data.txt文件

运行share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar这个java程序,调用wordcount方法

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /data/input/data.txt /data/out/data

后面出现这些说明成功

查看结果

bin/hdfs dfs -cat /data/out/data/part-r-00000

 

成功

猜你喜欢

转载自www.cnblogs.com/InterfaceAOP/p/11546242.html