Spark 启动时,提示 JAVA_HOME not set

在spark 根目录使用 sbin/start-all.sh 时,console提示 slave JAVA_HOME not set, 找了半天,最后的解决方法如下: 

在sbin目录下的spark-config.sh 中添加对应的jdk 路径,然后使用scp -r 命令复制到各个worker节点,即可

转自:https://blog.csdn.net/qq_27882063/article/details/58599276

在sbin的目录下的 spark -config.sh 文件下未添加JAVA_HOME的索引
在该配置文件下添加 : export JAVA_HOME=/usr/java/jdk1.8.0_111 即可

转自:https://blog.csdn.net/u014052851/article/details/76549451


猜你喜欢

转载自blog.csdn.net/chuyouyinghe/article/details/80943975
今日推荐