hadoop 配置文件中直接使用 ip 地址

    在hadoop系统中,namenode和datanode在进行交互时,缺省是要进行host解析查询的,在当前环境中, 所有配置文件中都直接使用了ip地址,导致系统报错

FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to hostname/ipaddress:9000. Exiting. 
java.io.IOException: All specified directories are failed to load.

    解决的方法是在所有节点的 core-site.xml 中加入

<property>
    <name>dfs.namenode.datanode.registration.ip-hostname-check</name>
    <value>false</value>
</property>

猜你喜欢

转载自blog.csdn.net/lepton126/article/details/88342652