hadoop案例测试——pi值、wordcount函数,hadoop不支持本地库问题

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u012829611/article/details/77679219

前言:本文案例测试所需环境都是在前面几篇blog的基础上进行的,具体内容请查看:
http://blog.csdn.net/u012829611/article/details/77678609
http://blog.csdn.net/u012829611/article/details/77651855

1.使用hadoop估算pi的值

[hadoop@localhost hadoop-2.7.3]# yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar pi 5 10

:命令中,“5”表示map进行5次,“10”表示每次map投掷10次(相当于扔飞镖10次计算出pi的值)

这里写图片描述

最终计算结果:

这里写图片描述

2.使用mapreduce中wordcount函数计算/input目录下test文件中单词出现的次数,结果输出到/output目录下

//hdfs上创建文件夹input

[hadoop@localhost hadoop-2.7.3]# hdfs dfs -mkdir /input
[hadoop@localhost hadoop-2.7.3]# hdfs dfs -ls /

//新建test文件,输入一些字符串

[hadoop@localhost hadoop-2.7.3]# vim test

//将test文件put到hdfs的input目录下

[hadoop@localhost hadoop-2.7.3]# hdfs dfs -put test /input

//执行命令

[hadoop@localhost hadoop-2.7.3]# yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /input/test /output

这里写图片描述

//查看output目录下的文件

[hadoop@localhost hadoop-2.7.3]# hdfs dfs -ls /output

这里写图片描述

//查看统计结果

[hadoop@localhost hadoop-2.7.3]# hdfs dfs -cat /output/part-r-00000

这里写图片描述


①hdfs dfs -rm -r /output //删除hdfs上的output文件夹


关于hadoop不支持本地库问题

问题描述:hadoop安装完后,使用”hadoop checknative”命令查看是否支持本地库时,发现不支持hadoop、zlib、snappy等一些本地库。

解决方法:执行以下命令

[hadoop@localhost bin]# export HADOOP_OPTS="-Djava.library.path=./../lib/native/"

参考文档:
http://blog.csdn.net/ligt0610/article/details/47757013
https://zhidao.baidu.com/question/1766673293716469500.html

猜你喜欢

转载自blog.csdn.net/u012829611/article/details/77679219
今日推荐