安装spark集群,Hadoop上传文件出现问题

1.问题原因:datanode端口不能连接namenode端口,日志中ip地址出现错误。

2.解决方法:

  1)递归删除根目录下he文件

      命令:xcall.sh hdfs dfs -rmr / he

  2)重新分发he文件到各个集群

      命令:xsync.sh he

  2)重启hadoop集群

猜你喜欢

转载自www.cnblogs.com/ting-ting-ta/p/9384732.html