centos安装与测试Hadoop2.7

为了方便,我们需要对服务器进行配置

1.1修改主机名

vim /etc/sysconfig/network

NETWORKING=yes
HOSTNAME=hadoop1

在这里插入图片描述
1.2修改主机名和IP的映射关系

vim /etc/hosts

在这里插入图片描述

根据自己的IP设置

1.3关闭防火墙
#查看防火墙状态

#systemctl is-enabled firewalld.service
firewall-cmd --state

#关闭防火墙

systemctl stop firewalld.service

#关闭防火墙开机启动

systemctl disable firewalld.service

1.4重启机器

上传文件

使用secureCRT软件连接服务器
为了方便上传下载文件需要安装

yum install lrzsz -y

rz上传
sz下载

Hadoop需要Java的环境,之前我们配置了的
现在我们直接安装Hadoop

  • 解压
 tar -zxvf hadoop-2.7.5.tar.gz 
  • 修改配置
    切换到目录:cd hadoop-2.7.5/etc/hadoop/
第一个:hadoop-env.sh
		vim hadoop-env.sh
		#第27行
		export JAVA_HOME=/usr/java/jdk1.7.0_65
		
	第二个:core-site.xml

		<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
		<property>
        	<name>fs.defaultFS</name>
       			 <value>hdfs://hadoop1:9000</value>
       	 </property>
        <!-- 指定hadoop运行时产生文件的存储目录 -->
        <property>
        		<name>hadoop.tmp.dir</name>
        <value>/home/hadoop/hadoop-2.7.5/tmp</value>
    </property>
		
	第三个:hdfs-site.xml   hdfs-default.xml  (3)
		<!-- 指定HDFS副本的数量 -->
		<property>
			<name>dfs.replication</name>
			<value>1</value>
    </property>
		
	第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
		首先执行
		mv mapred-site.xml.template mapred-site.xml
		vim mapred-site.xml
		<!-- 指定mr运行在yarn上 -->
		<property>
			<name>mapreduce.framework.name</name>
			<value>yarn</value>
    </property>
		
	第五个:yarn-site.xml
		<!-- 指定YARN的老大(ResourceManager)的地址 -->
		<property>
			<name>yarn.resourcemanager.hostname</name>
			<value>hadoop1</value>
    </property>
		<!-- reducer获取数据的方式 -->
    <property>
			<name>yarn.nodemanager.aux-services</name>
			<value>mapreduce_shuffle</value>
     </property>
	 
	 ****第六个启动集群配置
		vim slaves 
			把localhost改为自己真实的
			hadoop1
			(多个就添加多台)
			
		第六个启动集群配置
		vim slaves 
			把localhost改为自己真实的
			hadoop1
			(多个就添加多台)
		#用于集群配置添加主机名
  • 将hadoop添加到环境变量
vim /etc/proflie
		export JAVA_HOME=/usr/local/java/jdk1.8.0_181/
		export HADOOP_HOME=/home/hadoop/hadoop-2.7.5:wq
		export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

	source /etc/profile
  • 格式化namenode(是对namenode进行初始化)

hdfs namenode -format (hadoop namenode -format)
上面两条命令尝试,版本问题
成功后效果
在这里插入图片描述

验证hadoop是否安装成功

先 jps 命令查看进程

启动hadoop

先启动HDFS
		start-dfs.sh

这里会有一系列的提示信息

启动hadoop1

再启动YARN
		start-yarn.sh

yarn 也启动成功
启动yarn

启动成功后,我们还可以通过浏览器查看hadoop相关信息
只需要在浏览器输入
注意IP地址换为自己的ip地址

http://ip:50070 (HDFS管理界面)
在这里插入图片描述

http://ip:8088(MR管理界面)
在这里插入图片描述

至此hadoop启动成功,可以使用它的功能了

停止命令,依次执行:stop-dfs.shstop-yarn.sh

HDFS测试

上传文件

hadoop fs -put test.txt hdfs://hadoop2:9000/

下载文件

hadoop fs -get hdfs://hadoop2:9000/test.txt

运行mapreduce 程序

运行提供的例子,切换到hadoop2.7_181/share/hadoop/mapreduce
使用jar包里的例子,mapreduce模型计算圆周率 mapreduce 取样数量(5),任务数(5)

hadoop jar hadoop-mapreduce-examples-2.7.5.jar pi 5 5

测试结果打印
pi

猜你喜欢

转载自blog.csdn.net/qq_42988748/article/details/82944585
今日推荐