SPARK standlone安装配置

集群一共有3台机器,集群使用hadoop用户运行,3台机器如下:

1 DEV-HADOOP-01 192.168.9.110
2 DEV-HADOOP-02 192.168.9.111
3 DEV-HADOOP-03 192.168.9.112

 

  1. 配置集群间hadoop用户的无密码登录

  2. 配置每台机器的/etc/hosts

  3. 安装JDK1.8.0_60

  4. 安装scala

    1. 下载scala-2.11.7.tar

    2. 把scala-2.11.7.tar解压到/data/server目录

    3. 设置环境变量 /etc/profile

      1. export SCALA_HOME=/usr/scala/scala-2.11.7

      2. 使配置生效 source /etc/profile

  5. 安装spark

    1. 下载spark-1.5.0.tar

    2. 把spark-1.5.0.tar解压到/data/server目录

    3. 配置环境变量 /etc/profile

      1. export SPARK_HOME=/data/server/spark-1.5.0-bin-hadoop2.6

      2. export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

      3. 使配置生效 source /etc/profile

    4. 修改spark配置文件

      1. spark-env.sh配置文件

        1. export SCALA_HOME=/data/server/scala-2.11.7

        2. export JAVA_HOME=/usr/java/jdk1.8.0_60/

        3. export SPARK_MASTER_IP=DEV-HADOOP-01

        4. export SPARK_WORKER_MEMORY=2048m

      2. slaves配置文件

        1. DEV-HADOOP-02

        2. DEV-HADOOP-03

  6. 启动spark集群

    1. sbin/start-all.sh

  7. 集群启动验证

    1. 执行jps命令,master节点可以看到Master进程,slave可以看到Worker进程

  8. 查看Spark UI

    1. http://192.168.9.110:8080/

  9. 关闭集群

    1. sbin/stop-all.sh 

猜你喜欢

转载自primernd.iteye.com/blog/2307481