マックOSXシステムのHadoop / Hiveの火花のインストールと設定環境レコード
Hadoopの2.6インストールおよび構成(擬似分散)
- ダウンロードして解凍
- 設定の.bash_profile:
-
- 輸出HADOOP_HOME = /ユーザ/ファン/アプリケーション/ Hadoopの-2.6.0
- 輸出PATH = $ HADOOP_HOME / binに:$ HADOOP_HOME / sbinに:$ PATH
- HDFSの設定:
-
-
など/ Hadoopの/コア-site.xmlに:<設定><プロパティ><名前> fs.defaultFS </名前><値> HDFS:// localhostを:9000 </ value>の</プロパティ></設定>など/ Hadoopの/ HDFS-site.xmlを:<設定><プロパティ><名前> dfs.replication </名前><値> 1 </値></プロパティ></設定>ノードと名前ノード管理データノードとの間のデータの転送を容易にするために、SSH自動ログインを設定します
-
- Macの場合:設定 - > share->、リモートログインを有効にするファイル共有を有効にします
- 他人
-
-
セットアップpassphraselessのSSH
今、あなたはパスフレーズなしでローカルホストへのSSHできることを確認してください。$ sshのはlocalhostパスフレーズなしでlocalhostにsshをすることができない場合は、次のコマンドを実行します。$ sshの-keygenは-t dsaを-P '' -fの〜/ .ssh / id_dsaに$猫の〜/ .ssh / id_dsa.pub >>の〜/ .ssh / authorized_keysに$ chmodの0600の〜/ .ssh / authorized_keysに
-
-
- スタートHDFS:
-
-
ビン/ HDFS名前ノード-format
- Start-dfs.sh
-
- HDFSは、Web UIの管理ページをテストします。
-
- 50070ポート管理分散ファイルシステムHDFS
- 設定YARN:
-
-
などの設定パラメータは次のとおりです。など/ Hadoopの/ mapred-site.xmlのを:など/ Hadoopの/糸-site.xmlに:<設定><プロパティ><名前> yarn.nodemanager.aux-サービス</名前><値> mapreduce_shuffle </ value>の</プロパティ></設定>
-
- スタートYARN:
-
-
sbinに/ start-yarn.sh
-
- テストYARNのウェブUIの管理ページ:localhostを:8088 /
Start-dfs.sh起動時の問題:
- あなたはハイブ起動時に名前ノードを開始することができません、ないエラーメッセージ表示されます
-
Connecting to ResourceManager at /0.0.0.0:8032
java.net.ConnectException: Call From marta-komputer/127.0.1.1 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
以下の特定の問題にトレース、/Users/fan/Applications/hadoop-2.6.0/logs/hadoop-fan-namenode-MacBook.log:理由は、あなたはのstart-dfs.shを表示するログファイルを使用することができ、起動に失敗した名前ノードであります:
格納ディレクトリ(Hadoopの/ HDFS /データ/)が存在しないか、アクセスできません:Hadoopの/ HDFS /名前が矛盾した状態にあります
ソリューション:
- [CORRECT HDFS-SITE.XML]
<プロパティ>
<名前> dfs.namenode.name.dir </名前>
<値> /ホーム/ hduser / mydataという/ HDFS /名前ノード</ value>の
</プロパティ>
<プロパティ>
<名前> dfs.datanode.data.dir </名前>
<値> /ホーム/ hduser / mydataという/ HDFS /データノード</ value>の
</プロパティ>
- ファイル名を指定して実行のHadoop名前ノードの-format形式ターゲットディレクトリ
- Start-dfs.shスタートHDFS
ハイブ2.1.1インストールと設定:
- ダウンロード
- .bash_profileの設定ファイル:
-
- 輸出HIVE_HOME = XXX
- エクスポートPATH = $ HIVE_HOME / binに:$ PATHに
- ハイブ-site.xmlの:ハイブ-default.xmlの-template.xml confディレクトリ名の変更をコピーします。
- ハイブ-site.xmlのを変更し、設定さschematool -dbTypeのMySQL -initSchema初期メタデータ対応ツール構成メタストア
-
- ドライバに関連するハイブ-site.xmlのテーブルMySQLの接続構成を変更します。
-
- URL:DRIVERNAMEのMySQLユーザーパスワードなどは、を参照してください。
- libディレクトリにダウンロードのmysql-のconnector.jar
- 起動し、MySQLサービスを変更
- ファイル名を指定して実行:schematool -dbType mysqlの-initSchema
- :ハイブ-site.xml構成変更 http://stackoverflow.com/questions/27099898/java-net-urisyntaxexception-when-starting-hiveを
-
-
<名前> hive.exec.scratchdir </名前><値> / TMP /ハイブ - $ {user.name} </値><名前> hive.exec.local.scratchdir </名前><値> / TMP / $ {user.name} </値><名前> hive.downloaded.resources.dir </名前><値> / TMP / $ {user.name} _resources </値><名前> hive.scratch.dir.permission </名前><値> 733 </ value>の
-
- ハイブテストを開始
Spark2.1.0-hadoop2.6インストール:
- ダウンロード
- 增加輸出spark_classpath = mysql.connector.xxx.jar
- 次の火花にディレクトリにハイブハイブ-site.xml構成ファイルをコピーします。
- 启动火花シェル测试发现:MetaException(メッセージ:ハイブスキーマバージョン1.2.0メタストアのスキーマバージョン2.1.0メタストアがアップグレードまたは破損されていないと一致しない)によってaused
- 解決策:設定を変更します。 https://docs.hortonworks.com/HDPDocuments/Ambari-2.2.2.0/bk_releasenotes_ambari_2.2.2.0/content/ambari_relnotes-2.2.2.0-known-issues.html
- 正常に実行するには火花シェル。
あなたは使用することができます
起動し、使用したMacシステムでHBaseのインストール構成
- ダウンロード
- 〜/アプリケーションディレクトリへのcp
- JavaのホームのHbase-env.sh設定:輸出JAVA_HOME = /ユーザ/ファン/ .jenv /バージョン/ 1.8
- HBaseの-site.xml構成ファイル:
-
- <プロパティ>
- <名前> hbase.cluster.distributed </名前>
- <値>真</ value>の
- </プロパティ>
- <プロパティ>
- <名前>> hbase.rootdir </名前>
- <値> HDFS:// localhostを:9000 /ユーザー/ HBaseの</ value>の
- </プロパティ>
- HBaseのHDFS用のフォルダを作成しますHadoopのFS -mkdir /ユーザー/ HBaseのを。
- 設定の環境変数:
-
- 輸出HBASE_HOME = /ユーザ/ファン/アプリケーション/ HBaseの-1.2.4
- 輸出PATH = $ HBASE_HOME / binに:$ PATHに
- スタートは、HBaseの:
-
- zkServer.sh開始
- Start-hbase.sh
- hbase-daemon.shスタート倹約(パイソン便利な接続)
- HBaseのシェル(CLI環境)
- ビューUIのWeb: HTTP:// localhostを:16010 /マスターステータス
- HBaseのCLI:HBaseのシェル
飼育係のインストール構成と使用
- 構成:CPのconf / zoo_sample.cfg confに/ zoo.cfg
- スタート
-
- zkServer.sh開始
- 停止:
-
- zkServer.sh停止
- シェル:
-
- zkCli.sh
カフカのインストール構成と使用
- ダウンロード
- アプリケーションディレクトリにコピー
- インストールし、依存飼育係を設定しました。
- 環境変数を設定します。
-
- KAFKA_HOME =
- カフカ起動し、生産者と消費者をテスト
-
-
飼育係のサービスを開始します。カフカは、まずスタートZookperの、単にZookkeeper以下のサービスの単一のインスタンスを有効、飼育係を使用しています。あなたが始めることができるようにするには、コマンドコンソールのアドオン&シンボルの終了後に残すことができます。
- > binに/ zookeeper-server-start.shのconfig / zookeeper.properties&
- 設定/ zookeeper.properties(org.apache.zookeeper.server.quorum.QuorumPeerConfig):2013年4月22日15:01:37495]からINFOリーディング構成
- ...
2.次にカフカを開始します。- > binに/ kafka-server-start.shのconfig / server.properties
- 【2013年4月22日15:01:47028] INFO確認特性(kafka.utils.VerifiableProperties)
- 【2013年4月22日15:01:47051] INFOプロパティsocket.send.buffer.bytesは1048576にオーバーライドされる(kafka.utils.VerifiableProperties)
- 。
3:作成トピック話題の一つと呼ばれる「テスト」を作成し、それが唯一のパーティション、コピーです。- >ビン/ kafka-topics.sh --create --zookeeperはlocalhost:2181 --replication因子1 --partitions 1つの--topic試験
あなたは、listコマンドで作成されたトピックを表示することができます。- > binに/ kafka-topics.sh --list --zookeeperはlocalhost:2181
- テスト
手動トピックを作成するだけでなく、それが自動的にブローカーのトピックを作成するように設定することができます。4:送信メッセージ。カフカは、単純なコマンドライン・プロデューサを使用して、またはメッセージは、サーバから送信される標準入力ファイルから読み取ります。メッセージを送信するには、各コマンドをデフォルト。いくつかの実行プロデューサーとコンソールメッセージを出力するには、これらのメッセージは、サーバーに送信されます。- > binに/ kafka-console-producer.sh --brokerリストはlocalhost:9092 --topicテスト
- これは、別のメッセージmessageThisです
終了するにはCtrl + Cを送ります。5:スタートコンシューマーカフカは、標準出力にメッセージをダンプするコマンドラインの消費者を持っています。カフカは、メッセージを読み、標準出力にすることができ、コマンドラインの消費者があります。- > binに/ kafka-console-consumer.sh --zookeeperはlocalhost:2181 --topicテスト--from-始まり
- これはメッセージです
- これは別のメッセージであります
あなたは、コマンドライン端末、別の端末の実行プロデューサーコマンドラインで消費者を実行し、入力メッセージがターミナルすることができ、別の端末にメッセージを読み込みます。どちらのコマンドは、自分自身のオプションのパラメータを持って、実行時に任意のパラメータの助けを借りずに見ることができます。
-