- host文件配置
/etc/hosts文件若没配置好,会引起一系列不见遇见的问题,有时候会在这些问题上面花费较多的时间.
hadoop@PC3GD000516:/usr/local/hadoop$ more /etc/hosts 127.0.0.1 localhost 192.168.215.85 master pc-name0 192.168.215.201 slave1 pc-name1 192.168.215.202 slave2 pc-name2 #127.0.1.1 pc-name0
要点:
- 主从机器的IP要配置好,包括机器别名(如slave1)/机器实体名(如pc-name1)
- 同时本机的 127.0.0.1 不要配置机器名,要注释掉
- hadoop 数据临时目录配置
<property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> </property>
hadoop配置文件 core-site.xml 配置尽量手动配置这个选项,否则的话都默认存在了里系统的默认临时文件/tmp里。这用于记录dfs namenode的相关节点信息,如一些格式化信息等.如果使用默认临时文件路径/tmp的话,每次重启服务器后,就要重新 dfsadmin namenode -format 一次了,数据也丢失了.