hadoop运行模式(伪分布式)——启动HDFS并运行Mapreduce

0.伪分布式:只有一个节点的分布式(主要通过配置伪分布式了解分布式需要配饰的文件及步骤)

启动HDFS并运行Mapreduce

	1.1 配置集群(配置文件的目录-/opt/module/hadoop-2.7.2/etc/hadoop)
export JAVA_HOME=/opt/module/jdk1.8.0_144

1.1.2 配置core-site.xml(主要高速hadoop运行运行模式等信息)

<configuration> 
			        <!--指定HDFS中NameNode的地址-->
			        <property>
			                <name>fs.defaultFS</name>
			                <value>hdfs://hadoop101:9000</value>
			        </property>
			        <!--指定hadoop运行时产生的文件的存储目录-->
			        <property>
			                <name>hadoop.tmp.dir</name>
			                <value>/opt/module/hadoop-2.7.2/data/tmp</value>
			        </property>
			</configuration>

1.1.3 配置hdfs-site.sh(存储数据副本-1)

<configuration>
				        <!--指定HDFS副本的数量,伪分布只需要1份-->
				        <property>
				                <name>dfs.relication</name>
				                <value>1</value>
				        </property>
				</configuration>

1.2 启动集群
1.2.1 格式化NameNode(第一次启动时格式化)

bin/hdfs namenode -format

1.2.2 启动NameNode

sbin/hadoop-daemon.sh start namenode

1.2.3 启动DataNode

sbin/hadoop-daemon.sh start datanode

1.3 查看集群
1.3.1 本地查看

jps

1.3.2 web端查看

http://hadoop7:50070/

1.4 操作集群
1.4.1 在HDFS文件系统上创建一个input文件夹
bin/hdfs dfs -mkdir -p /user/root/input
1.4.2 将测试文件内容上传到HDFS文件系统上
bin/hdfs dfs -put wcinput/wc.input /user/root/input
1.4.3 查看文件是否上传成功
bin/hdfs dfs -ls /user/root/input
bin/hdfs dfs -cat /user/root/input/wc.input
1.4.4 运行MapReduce程序
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/root/input/ /user/root/output
1.4.5 查看结果
bin/hdfs dfs -cat /user/root/output/*
http://hadoop7:50070/explorer.html#/user/root/output

发布了4 篇原创文章 · 获赞 3 · 访问量 162

猜你喜欢

转载自blog.csdn.net/m0_46201836/article/details/105682429