Spark-- docker + spark +hadoop进行搭建本机的伪集群

简介

之前摆弄了一个docker + hadoop3.1 的镜像,通不了,所以这里直接先再github上找了一个Spark搭建的集群。
docker-sparkhttps://github.com/houshuai0816/docker-spark 这个项目中当前使用的是Spark 2.3.0 和 hadoop2.7 和jdk8

构建

  • 进行检出仓库内容
git clone https://github.com/houshuai0816/docker-spark.git
  • 进入你的容器
cd G:\project\Github_Porject\docker-spark
  • 通过yml进行启动此项目
docker-compose up -d

这里写图片描述

猜你喜欢

转载自blog.csdn.net/qq_15807167/article/details/80497941