大数据实时计算Spark学习笔记(2)—— Spak 集群搭建

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u012292754/article/details/85271871

1 Spark 集群模式

  • local: spark-shell --master local,默认的
  • standlone
1.复制 spark 目录到其他主机
2.配置其他主机的环境变量
3.配置 master 节点的 slaves 文件
4.启动 spark集群,start-all.sh
5.WebUI: 8080
  • YARN 模式
  • mesos 模式

2 Spark集群完全分布式 standlone

  • spark-env.sh
export JAVA_HOME=/usr/apps/jdk1.8.0_181-amd64
export SCALA_HOME=/home/hadoop/apps/scala-2.11.12

SPARK_MASTER_HOST=node1
SPARK_WORKER_CORES=1
SPARK_WORKER_MEMORY=1g
SPARK_WORKER_INSTANCES=1
  • slaves
node1
node2
node3
  • 启动
[hadoop@node1 spark-2.2.2-bin-2.6.0-cdh5.7.0]$ ./sbin/start-all.sh

浏览器访问 http://node1:8080/
在这里插入图片描述

2.1 start-all.sh 脚本分析

  1. sbin/spark-config.sh
  2. sbin/spark-master.sh
  3. sbin/spark-slaves.sh

猜你喜欢

转载自blog.csdn.net/u012292754/article/details/85271871