使用docker搭建spark(2.3.1)集群

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/crazy_scott/article/details/83689053

使用Docker快速搭建Spark集群。

创建Spark集群

  • 首先在命令行下载该项目:

    • git clone https://github.com/gettyimages/docker-spark.git
      
  • 在该目录下,输入compose up:

    • image-20181103161607705
  • 等待安装,最后会提示Worker和master都准备好了:

    • image-20181103164306737
  • 在浏览器中输入localhost:8080,出现如下界面,说明配置成功:

    • image-20181103164209061
  • 我们可以使用docker ps -a命令查看当前运行的容器:

    • image-20181103164801925

集群使用与作业提交

集群使用

  • 首先进入master的容器:
    • docker exec -it docker-spark_master_1 /bin/bash
    • 注意,使用exec命令进入容器时,在命令行输入exit不会退出容器,使用attach命令再次进入
    • image-20181103165057661
  • 查看Spark和Hadoop的版本:
    • hadoop version
      • image-20181103165310600
    • spark shell
      • image-20181103165436488
    • 使用:quit退出spark-shell。
    • 同样也可以查看python的版本,为3.5.3,已经很新了。

作业提交

  • 在配置docker compose时,我们已经将本地文件./data挂载到容器中的/tmp/data下,因此,我们可以先在本地文件中放入需要文件,这里我放入了kmeans的文件:
    • image-20181103172448920
  • 在master节点中查看该文件:
    • image-20181103172541513
  • 这已经映射到了hdfs上,我们可以使用hdfs dfs -cat命令查看:
    • image-20181103172841438
  • 这样,我们就可以使用spark-submit运行我们的程序
  • 在浏览器中查看运行的程序:
    • image-20181103173314647

猜你喜欢

转载自blog.csdn.net/crazy_scott/article/details/83689053
今日推荐