hadoop安装配置中的一些问题

1.安装配置java时
程序 ‘java’ 已包含在下列软件包中:
* default-jre
* gcj-4.8-jre-headless
* gcj-4.9-jre-headless
* openjdk-7-jre-headless
* openjdk-6-jre-headless
* openjdk-8-jre-headless
请尝试:apt-get install <选定的软件包>
解决方法:
sudo update-alternatives –install /usr/bin/javac javac /usr/local/java/jdk1.7.0_80/bin/javac
sudo update-alternatives –install /usr/bin/java java /usr/local/java/jdk1.7.0_80/bin/java
加粗的是你自己java安装的路径

发现自己的原因是配置etc/profile后忘记使用source命令执行了。

2.ssh无密码登陆,两台机器
http://www.linuxidc.com/Linux/2012-09/70116.htm

若是pc1连接pc2的虚拟机,虚拟机要使用桥接模式才可以ping。

3.hive的安装
参考:http://blog.csdn.net/x_i_y_u_e/article/details/46845609

4.hadoop集群开启后datanode没有启动
参考:http://blog.csdn.net/asia_kobe/article/details/50902812

5.eclipse连接HDFS。
下载hadoop-eclipse-plugin-xxx.jar这个包,放入eclipse目录下的plugin文件夹中,重启之后就可以在配置中看到了。具体配置可以参考:http://www.jianshu.com/p/0e8001b29509

ps:unbuntu16.04和eclipse mars有点不兼容,而最新版的eclipse neno对hadoop-eclipse-plugin-2.7.3.jar没反应,推荐下载eclipse luna。

猜你喜欢

转载自blog.csdn.net/u013036495/article/details/70209245