MapReduce配置遇到的问题和ubuntu 16.04下使用eclipse创建工程时卡死的解决方法

1、左边栏的Project Explorer里一直不出现DFS Locations.

  发现在把hadoop-eclipse-plugin-2.6.0.jar放到eclipse下的pluins文件夹下并且eclipse -clean之后依旧不显示,后来找到问题所在。

  在Linux虚拟机里换了新的Eclipse,又重新配置MapReduce。

  这次再把hadoop-eclipse-plugin-2.6.0.jar放到eclipse下的pluins文件夹下并且eclipse -clean之后,DFS Locations出现了。

  

2、配置:

  

  

  

3、在配置好MapReduce的路径和常规之后,将端口与hadoop配置的一致,之后能正常显示hdfs下的文件了。

  

  不过,新的eclipse出现了一个很大的问题,卡,非常卡,新建一个MapReduce项目卡了一下午,鼠标变成了圆圈进度条转了一下午,还关不掉。当我直接去关闭新建项目的窗口时,出现这个问题:

  

  这就很皮,卡的要死还不让关闭,直接关eclipse也是显示这个。

  最后百度查了之后,使用了这个命令:

1 kill -9 `ps -ef|grep program_name|awk '{print $2}'`

  将无法关闭的eclipse强制关闭。

  我本来以为是我把虚拟机的内存开小了,或者是eclipse内存不够才卡顿,后来发现在eclipse.ini里配置了各个运行内存的大小后,eclipse启动变快了,但是并不影响新建项目直接卡死。

  总之在这里走了很多弯路,试过了各种方法,最后走出一条可行的路,这里记载下方法,以便以后再遇到类似的问题可以解决:

  首先打开终端,输入export SWT_GTK3=0

  

  然后使用终端打开eclipse。

  在eclipse文件夹下的eclipse.ini文件中,找到:

1 --launcher.appendVmargs

  在这个代码的前面,加上这两行: 

1 --launcher.GTK_version
2 2

  问题迎刃而解,启动eclipse正常使用了。

 4.记录一下dfs location连接的错误

  

  这个是连接问题,配置里出现了问题(没有把那些参数的值和自己的hadoop配置时修改的值保持一致)

  还有一个是hadoop版本和hadoop-eclipse-plugin-2.6.0.jar这个插件的版本不匹配,也会报一个错。

  

猜你喜欢

转载自www.cnblogs.com/guobin-/p/9979458.html
今日推荐