spark本地模式的安装

前提:java环境,hadoop环境,scala环境均已安装且版本没有问题
问题:双击spark-shell.cmd没有反应在这里插mei入图片描述
解决方案:
(1.)进入Spark安装目录下的conf目录

(2.)复制conf spark-env.sh.template 文件为 spark-env.sh

(3.)在其中修改,增加如下内容:SPARK_LOCAL_IP=服务器IP地址

(4.)此时,再次双击spark-shell.cmd就可以打开,如下图
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/m0_46222433/article/details/119852990