ビッグデータ開発-Docker-Dockerを使用して、ビッグデータ環境を10分ですばやく構築します。Hadoop、Hive、Spark、Hue、Kafka、ElasticSearch ...

ピットを作り、後でチュートリアルを作成します。もちろん、これは最も重要なことではありません。テストする環境が必要な場合は、次の3つの手順のみが必要です。

1.1。git clone https://github.com/hulichao/docker-bigdata

2.安装ドッキングウィンドウのドッキングウィンドウ・コン, 然后-d`アップCD]ドッキングウィンドウ-bigdata &&ドッキングウィンドウ・コン-fドッキングウィンドウ・コン-devの

3.启动集群 登入多く存在する环境,然后ためのスクリプト,ps:の下でクラスタを起動および停止ドッキングウィンドウのSHスクリプト/ start-cluster.shオンデマンドで開始、scripts`、コメントへの注意を払うには、

プルしたミラーイメージはこのウェアハウスにありhttps://hub.docker.com/repository/hoult
ファイル

ps:ポートマッピングの部分で楽しく遊ぶことができますが、独自の本や他のサーバーを構築するときにポートが常に使用できるとは限らないため、注意が必要です。ポートして再起動します。

Wu Xie、Xiao San Ye、バックグラウンドの小さな新人、ビッグデータと人工知能。
もっと注意してください
ファイル

おすすめ

転載: blog.csdn.net/hu_lichao/article/details/112125800