使HDFS三个进程都以当前机器名启动

etc/hadoop hadoop的配置文件都在这里
hadoop-env.sh 是指的hadoop家目录,jdk目录
core-site.xml 三个组件核心的共有的
hdfs-site.xml
mored-site.xml.template
yarn-site.xml
slaves 配置datanode

部署用机器名称不要用ip

不用ip部署,统一机器名称hostname部署
只需要/etc/hosts 修改映射关系即可(第一行,第二行不要删除)
这样在部署机器的时候,修改网段后可以立刻做出改变

修改namenode进程

vi /home/hadoop/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop/core-site.xml
把ip修改为机器号(配置大哥)

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop001:9000</value>
    </property>
</configuration>

修改datanode进程

vi /home/hadoop/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop/slaves
把ip变为机器号 (配置小弟)
hadoop001

修改secondarynamenode

vi /home/hadoop/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop/hdfs-site.xml

<property>
	<name>dfs.namenode.secondary.http-address</name>
	<value>hadoop001:50090</value>
</property>
<property>
	<name>dfs.namenode.secondary.https-address</name>
	<value>hadoop001:50091</value>
</property>

重新配置SSH无密码登录

rm -rf .ssh
ssh-keygen (生成key)
三次回车
cd .ssh
cat 公钥文件>>认证文件authorized_keys
chmod 600 auzhotized_keys
sbin/start-dfs.sh 启动hdfs

猜你喜欢

转载自blog.csdn.net/weixin_43517453/article/details/88351553