docker下部署spark+python+pyspark+Jupyter

1、使用singularities/spark2.2 搭建 spark

参考 https://hub.docker.com/r/singularities/spark

singularities/spark:2.2版本中
Hadoop版本:2.8.2
Spark版本: 2.2.1
Scala版本:2.11.8
Java版本:1.8.0_151

   创建docker-compose.yml 文件

version: "2"

services:
  master:
    image: singularities/spark
    command: start-spark master
    hostname: master
    ports:
      - "6066:6066"
      - "7070:7070"
      - "8080:8080"
      - "50070:50070"
  worker:
    image: singularities/spark
    command: start-spark worker master
    environment:
      SPARK_WORKER_CORES: 1
      SPARK_WORKER_MEMORY: 2g
    links:
      - master

2、启动 spark

启动容器
docker-compose up -d
查看容器
docker-compose ps
停止容器
docker-compose stop
删除容器
docker-compose rm

3、启动成功可以通过浏览器访问 localhost:8080,localhost:50070 查看状态

4、创建Python+pyspark+jupyter环境

新建一个 Dockerfile 文件,写入下面的内容

FROM python:3.7
  
MAINTAINER Haiyang Lv

USER root

RUN pip install jupyter -i http://pypi.douban.com/simple --trusted-host pypi.douban.com

RUN pip install pyspark -i http://pypi.douban.com/simple --trusted-host pypi.douban.com

CMD jupyter notebook --allow-root --ip=0.0.0.0

5、创建 Python+pyspark+jupyter docker images

在Dockerfile的目录下执行命令
docker build -t python_jupyter:latest .

6、启动 jupyter 容器

docker run -itd -p 8888:8888 --name jupyter python_jupyter

7、浏览器访问 jupyter 127.0.0.1:8888

根据提示进入容器执行 jupyter notebook list 查看 token

进入容器命令 docker exec -it jupyter bash

 复制到浏览器中就可以了

猜你喜欢

转载自blog.csdn.net/wuchenlhy/article/details/103310954