mac os环境搭建spark

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/lv836735240/article/details/52901819
1.eclipse按装scala ide 地址如下:
2.spark环境搭建
先安装scala
brew install scala
安装完成后
scala -version查看是否安装成功

下载完成后解压


然后配置scala和spark路径

vim /etc/profile

配置如下参数(自己本机spark和scala路径)



export SCALA_HOME=/usr/local/Cellar/scala
export PATH=$PATH:$SCALA_HOME/bin
export SPARK_HOME=/Users/lv/spark/spark-2.0.1-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

3.进行本机SSH配置,在主目录下输入如下命令:

ssh-keygen –t rsa –P ""

然后一直按回车直到结束,接着输入命令,追加私钥:

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

最后需要做的一件事是在System Preferences->Sharing中选中Remote Login

4.启动Spark

首先进入Spark目录中的sbin子目录运行如下脚本启动Spark:
./start-all.sh


查看是否启动


使用spark shell 进行测试

进去Spark目录下的bin子目录运行如下脚本启动Spark shell:


./spark-shell

当看到如下界面的时候你已经成功了:

猜你喜欢

转载自blog.csdn.net/lv836735240/article/details/52901819