Spark中遇到的问题

spark启动slave时提示 JAVA_HOME is not set

解决方法:

在sbin目录spark-config.sh 中添加自己的jdk 路径
export JAVA_HOME=/home/hadoop/modules/jdk

启动:

sbin/start-all.sh 

猜你喜欢

转载自www.cnblogs.com/Diyo/p/11291918.html