大数据开发-Docker-使用Docker10分钟快速搭建大数据环境,Hadoop、Hive、Spark、Hue、Kafka、ElasticSearch.....

立个坑,教程后续补上,当然这不是最重要的,如果你仅仅想有个环境可以测试,只需要下面 三步

1.git clone https://github.com/hulichao/docker-bigdata

2.安装dockerdocker-compose, 然后cd docker-bigdata && docker-compose -f docker-compose-dev up -d`

3.启动集群 登入docker环境,然后sh scripts/start-cluster.sh,ps:scripts` 下有很多启动和停止集群的脚本,按需启动,注意注释哦

你拉的镜像是在这个仓库里哈,https://hub.docker.com/repository/hoult
file
接下来就可以愉快的玩耍了
ps: 端口的映射部分,也要注意下,由于在自己本本或者别的服务器搭建时候端口往往不一定都可以用,看着改改端口,再启动。

吴邪,小三爷,混迹于后台,大数据,人工智能领域的小菜鸟。
更多请关注
file

猜你喜欢

转载自blog.csdn.net/hu_lichao/article/details/112125800