配置hadoop集群常见问题和概念联系

1)防火墙没关闭、或者没有启动yarn(如果namenode和yarn的resourcemanager在同一台服务器上,就只需要配置该台服务器的ssh,然后把公钥分发到其他节点,如果namenode和resourcemanager在不同服务器上,那么这两台服务器都必须配置ssh,把各自的公钥分发到其他节点,使用ssh-copy-id ip或者hostname(做了hosts映射才能用))
2)主机名称配置错误
3)ip地址配置错误
4)ssh没有配置好(很容易犯,如果没有配置好,比如有的节点没有配置ssh,集群启动的时候就会卡在某一个位置,不动,卡的位置可能就是节点未配置ssh原因
5)root用户和atguigu两个用户启动集群不统一
6)配置文件修改不细心
7)未编译源码
8)datanode不被namenode识别问题(参考:https://blog.csdn.net/yhblog/article/details/83987241 中的问题2
9)个人学习过程中,如果集群因配置问题崩掉,1.启动集群前先清除以前错误数据目录和日志目录,再格式化namenode(开发过程中不能随便格式化namenode),清除各个节点上的错误数据可以使用xcall分发命令,如:
xcall rm -rf /opt/module/hadoop-2.7.2/data/ /opt/module/hadoop-2.7.2/logs/
10)namenode配置好了集群文件后可以通过xsync同步到其他节点(namenode配置mapred-site.xml时,应先把mapred-site.xml.template使用mv命令改成mapred-site.xml。使用mv mapred-site.xml.template mapred-site.xml),然后分发到其他节点,此时其他节点里面会有mapred-site.xml文件,而mapred-site.xml.template还在,可以不管,因为HDFS系统
默认先找mapred-site.xml文件
11)slaves本意是苦工,机的意思,意译为节点的意思,里面配置的主机名所在的服务器会产生datanode,意思为那台服务器有datanode是由该配置文件决定的。
12)nodemanager由datanode决定,哪台服务器有datanode,集群启动后,改服务器就会产生nodemanager,用于管理datanode,再与resourcemanager进行通讯,从而达到资源调度。

猜你喜欢

转载自blog.csdn.net/yhblog/article/details/84102363