Hadoop通过路径和和链接访问HDFS

如果既想在Hadoop服务器本地可以通过绝对路径如"/user/hadoop"方式访问hdfs,也想通过"hdfs://local

host:9000/user/hadoop的方式访问hdfs,此时做需要配置core-site.xml:

<property>  
    <name>fs.defaultFS</name>  
    <value>hdfs://master.domain.com:9000</value>  
</property>  

上面的配置只能让你使用"hadoop fs -ls /user/hadoop"来查看hdfs,链接方式还需要修改hdfs-site.xml:

<property>  
    <name>dfs.namenode.rpc-address</name>  
    <value>master.domain.com:9000</value>  
</property>  

此时,如果你的服务器是放在机房,并且"master.domain.com"域名在所有hadoop集群机器上已经

指向namenode的内网IP,那么上面的配置只会让你能在hadoop集群所在的内网机器通过"hdfs://local

host:9000/user/hadoop"访问hdfs,若需要在机房外访问hadoop的hdfs,还需要在hdfs-site.xml中增加下面

内容:

<property>  
    <name>dfs.namenode.rpc-bind-host</name>  
    <value>0.0.0.0</value>  
</property> 

其中的host"0.0.0.0"会替换上面的“dfs.namenode.rpc-address”的域名,此时重启hadoop,hadoop就会

监听内外两个网卡的9000端口。

猜你喜欢

转载自www.cnblogs.com/wpcnblog/p/8920914.html
今日推荐