搭建Hadoop报错汇总(那些曾经踩过的坑)

1.-bash: hadoop: command not found

解决:
首先检查自己hadoop文件是否成功上传解压放在了指定目录下,再查看自己的/etc/profile文件下是否把HADOOP_HOME的环境变量配好了,注意文件目录是否写对。

2.在配置Hadoop环境的过程中出现错误:Error:Invalid HADOOP_COMMON_HOME

解决:我是在启动hadoop时候报的这个错再到node1找错误才找到1的,所以要是在1错误后出现这个报错信息就去找你的 hadoop-env.sh
多半是 这里面export HADOOP_HOME=写的有问题
这里面需要配JAVA_HOME的绝对路径可以顺带一起吧HADOOP_HOME配了吧
3.Starting namenodes on [master]
ERROR: Attempting to operate on hdfs namenode as root
ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.
解决:
启动hadoop出现这个报错呢,去/hadoop/sbin路径下将start-dfs.sh,stop-dfs.sh,start-yarn.sh,stop-yarn.sh配好,检查是不是写错了
4.启动hadoop

[root@master sbin]# start-all.sh

node1: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).
node2: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).
localhost: nodemanager is running as process 3328.  Stop it first.

解决:
1)在start-dfs.sh stop-dfs.sh start-yarn.sh stop-yarn.sh中是否进行了用户名的配置。

在start-dfs.sh 和 stop-dfs.sh中增加如下内容:
#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER =hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE=USER=root

在start-yarn.sh 和 stop-yarn.sh中中增加如下内容:

#!/usr/bin/env bash

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

2) 免密那块内容是否做好。
在每个节点尝试如下三条命令尝试,是否能够直接进入其他节点

ssh master

ssh node1
ssh node2
4.启动后无法访问web界面
关防火墙,多关几遍!

发布了80 篇原创文章 · 获赞 148 · 访问量 2万+

猜你喜欢

转载自blog.csdn.net/Miracle1203/article/details/104944218