尚硅谷大数据技术之Hadoop(入门)第6章 常见错误及解决方案

1)防火墙没关闭、或者没有启动yarnx

INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032

2)主机名称配置错误

3ip地址配置错误

4ssh没有配置好

5root用户和atguigu两个用户启动集群不统一

6)配置文件修改不细心

7)未编译源码

Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

17/05/22 15:38:58 INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032

8datanode不被namenode识别问题

Namenodeformat初始化的时候会形成两个标识,blockPoolIdclusterId。新的datanode加入时,会获取这两个标识作为自己工作目录中的标识。

一旦namenode重新format后,namenode的身份标识已变,而datanode如果依然持有原来的id,就不会被namenode识别。

解决办法,删除datanode节点中的数据后,再次重新格式化namenode

9)不识别主机名称

java.net.UnknownHostException: hadoop102: hadoop102

        at java.net.InetAddress.getLocalHost(InetAddress.java:1475)

        at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:146)

        at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290)

        at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1287)

        at java.security.AccessController.doPrivileged(Native Method)

        at javax.security.auth.Subject.doAs(Subject.java:415)

解决办法:

1)在/etc/hosts文件中添加192.168.1.102 hadoop102

2)主机名称不要起hadoop  hadoop000等特殊名称

10datanodenamenode进程同时只能工作一个。


11)执行命令 不生效,粘贴word中命令时,遇到-和长没区分开。导致命令失效

解决办法:尽量不要粘贴word中代码。

12jps发现进程已经没有,但是重新启动集群,提示进程已经开启。原因是在linux的根目录下/tmp目录中存在启动的进程临时文件,将集群相关进程删除掉,再重新启动集群。

13jps不生效。

原因:全局变量hadoop   java没有生效,需要source /etc/profile文件。

148088端口连接不上

[atguigu@hadoop102 桌面]$ cat /etc/hosts

注释掉如下代码

#127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4

#::1         hadoop102


 本教程由尚硅谷教育大数据研究院出品,如需转载请注明来源,欢迎大家关注尚硅谷公众号(atguigu)了解更多。



猜你喜欢

转载自blog.csdn.net/atguigu_com/article/details/81064662