Spark 集群配置

Spark 下载:  目前在官方网站上,build好的Spark 有hadoop2.6, hadoop2.7,hadoop版本按需选择

Spark 环境依赖:    scala 2.11.x

Spark资源调度有两种选择(实际生产部署)
   1 yarn
   2 mesos,当实际生产环境部署spark,需要升级原来的hadoop时(存在风险),
        这时可以考虑使用messos.

配置spark-env.sh
   JAVA_HOME
   SCALA_HOME
   SPARK_MASTER_HOST
   SPARK_MASTER_PORT
    SPARK_CONF_DIR
    SPARK_MASTER_WEBUI_PORT
     SPARK_WORKER_CORES=1
     SPARK_WORKER_MEMORY=1g
     SPARK_WORKER_PORT=
     SPARK_WORKER_WEBUI_PORT

有些可以使用默认的配置,

使用yarn请配置:  HADOOP_HOME, HADOOP_CONF_DIR

在slaves中配置work节点

启动spark集群服务:

             sbin/start-all.sh

    

猜你喜欢

转载自blog.csdn.net/weixin_39594447/article/details/86611034