centos7 (阿里云、linux) 单机spark的安装与配置详解(jdk安装与配置,scala安装与配置,hadoop安装与配置,spark安装与配置)

centos7 单机spark的安装与配置详解

1.yum进行更新

yum upgrade

saprk的安装需要安装jdk、scala、spark

2. jdk安装与配置

安装

 sudo yum install java-1.8.0-openjdk-devel.x86_64

配置

我们需找到jdk文件路径

命令:

rpm -ql java-1.8.0-openjdk-devel-1.8.0.191.b12-1.el7_6.x86_64

在这里插入图片描述

打开配置文件

vim /etc/profile

进行环境变量配置(文件路径要自己进行查看 路径是否正确)

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.191.b12-1.el7_6.x86_64
export JRE_HOME=$JAVA_HOME/jre
export PATH=$PATH:$JAVA_HOME/bin

环境变量生效

source /etc/profile

3. scala安装与配置

安装

wget http://www.scala-lang.org/files/archive/scala-2.11.8.tgz

对下载文件进行解压

tar -zxf scala-2.11.8.tgz

将文件移入lib文件下

 mv scala-2.11.8 /usr/lib

配置

vim /etc/profile
export SCALA_HOME=/usr/lib/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin
source /etc/profile

4. spark安装与配置

安装

  wget  http://d3kbcqa49mib13.cloudfront.net/spark-2.0.0-bin-hadoop2.7.tgz
  
  476  

解压

tar -zxf spark-2.0.0-bin-hadoop2.7.tgz

配置

vim /etc/profile
export SPARK_HOME=$HOME/spark-2.0.0-bin-hadoop2.7
export PYTHONPATH=$PATH:$SPARK_HOME/python
source /etc/profile
  1. 启动spark

进入spark文件

cd $SPARK_HOME

启动spark自带求π程序

./bin/run-example SparkPi

在这里插入图片描述
在这里插入图片描述
上面有π的输出结果,Pi is roughly 3.144… 代表成功,如果报no command ,就是环境变量配置错误,可以进行环境变量测试,看环境变量是否正确。

猜你喜欢

转载自blog.csdn.net/Lq_520/article/details/85318334