1.環境バージョンを構成します
データをBaiduCloudにアップロードし、自分で取得します。リンク:https://pan.baidu.com/s/1evVp5Zk0_X7VdjKlHGkYCw抽出コード:ypti
このコンテンツをコピーして、操作に便利なBaiduNetdisk モバイルアプリを開きます。
(以前にApacheバージョンのHadoop 2.6.4がインストールされていて、ハイブの起動時にエラーが報告されましたが、統一された方法でCDHに変更されました)
2.インストール前の構成作業
2.1jdkをインストールします
(1)jdkをダウンロードする
(2)/ etc / profileファイルで環境変数を解凍し、構成します
export JAVA_HOME=/home/jdk1.8.0_131
export PATH=${JAVA_HOME}/bin:${PATH}
2.2SSHパスワードなしのログイン
ssh-keygen
ファイルのパスに応じて変更します。
cp /root/.ssh/id_rsa.pub /root/.ssh/authoried_keys
次のコマンドでテストします。
ssh localhost
2.3 mysqlのインストール(ハイブ環境で必要)
ルーキーチュートリアルを参照できます:https://www.runoob.com/linux/mysql-install-setup.html
私のデータベースはリモートです。mysqlリモート接続を構成する必要があります
2.4IPを構成する
/ etc / hostsを設定するには、両方のサーバーを変更する必要があります。私のものは2つ、1つはマスター、もう1つはデータです。括弧内には何も書かれていません。
IP地址 hostname (master)
IP地址 hostname (data)
3.Hadoopをインストールします
(1)ファイルをダウンロードする
(2)サーバーに個別に解凍し、環境変数を設定します
環境変数の構成:
export HADOOP_HOME=/home/hadoop-2.6.0-cdh5.15.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS=-Djava.library.path=$HADOOP_HOME/lib
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-DJava.library.path=$HADOOP_HOME/lib"
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
#export YARN_CONF_IR=/home/hadoop-2.6.4/etc/hadoop
export HADOOP_CLASSPATH=${JAVA_HOME}/lib/tools.jar
有効にするには、ソース/ etc / profileを使用することを忘れないでください。!!
(3)構成ファイル
- マスターサーバーを構成する
hadoopファイルディレクトリ/etc/hadoop/core-site.xmlを入力します。
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
hadoopファイルディレクトリ/etc/hadoop/hdfs-site.xmlを入力します。
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<!--<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hadoop-2.6.0-cdh5.15.1/hadoop_data/hdfs/namenode</value>
</property> -->
</configuration>
hadoopファイルディレクトリ/etc/hadoop/mapred-site.xmlを入力します。
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>master:54311</value>
</property>
</configuration>
hadoopファイルディレクトリ/etc/hadoop/yarn-site.xmlを入力します。
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8050</value>
</property>
</configuration>
hadoopファイルディレクトリ/ etc / hadoop /に新しいmastersファイルを作成し、masterと入力します
hadoopファイルディレクトリ/ etc / hadoop /にスレーブファイルを作成し、データを入力します(複数のデータサーバーがある場合は、data1、data2、data3などのように別々に書き込みます)
- データサーバーを構成する
hadoopファイルディレクトリ/etc/hadoop/core-site.xmlを入力します。
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
hadoopファイルディレクトリ/etc/hadoop/hdfs-site.xmlを入力します。
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/hadoop-2.6.0-cdh5.15.1/hadoop_data/hdfs/datanode</value>
</property>
</configuration>
hadoopファイルディレクトリ/etc/hadoop/mapred-site.xmlを入力します。
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>master:54311</value>
</property>
</configuration>
hadoopファイルディレクトリ/etc/hadoop/yarn-site.xmlを入力します。
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8050</value>
</property>
</configuration>
(4)開始
hadoopファイルのdirectory / sbinを入力し、start-all.shを開始するか、start-dfs.shとstart-yarn.shをそれぞれ入力します。
(5)表示
- マスターサーバーはNameNodeノードを起動します。
- データサーバーで、DataNodeノードを起動します。
4.Hbaseをインストールします
(1)Hbaseをダウンロードして解凍します
(2)環境変数を構成する
export HBASE_HOME=/home/hbase-1.2.0-cdh5.15.1
export PATH=$PATH:$HBASE_HOME/bin
(3)構成ファイル
Hbaseインストールディレクトリ/conf/hbase-env.shを入力し、変更します
Hbaseインストールディレクトリ/conf/hbase-site.xmlを入力し、変更します
<configuration>
<property>
<name>hbase.rootdir</name>
<value>file:/home/hbase-1.2.0-cdh5.15.1/hbase_data</value>
</property>
</configuration>
(4)開始
hbaseshellと入力します
5.Hiveをインストールします
(1)Hiveをダウンロードして解凍します
(2)環境変数を構成する
export HIVE_HOME=/home/hive-1.1.0-cdh5.15.1
export PATH=:$JAVA_HOME/bin:$MAVEN_HOME/bin:$FINDBUGS_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SQOOP_HOME/bin:$HIVE_HOME/bin:$PATH
(3)構成ファイル
Hiveインストールディレクトリ/conf/hive-env.shに入り、変更します
export HADOOP_HOME=/home/hadoop-2.6.0-cdh5.15.1/
export HBASE_HOME=/home/hbase-1.2.0-cdh5.15.1
Hiveインストールディレクトリ/conf/hive-site.shに入り、変更します
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://IP地址:3306/hive?createDatabaseIfNotExsit=true;characterEncoding=utf8&useSSL=false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
</property>
</configuration>
mysqlデータベースへのリモート接続が設定されています。ハイブデータベースがデフォルトであり、変更できません。事前にmysqlで新しいデータベースを作成する必要があります。
(4)開始
ハイブを入力して開始
ターミナルのJlineパッケージエラーが報告された場合、hadoopファイルディレクトリ/ share / hadoop / yarn / lib /の下のjlineパッケージは、Hiveインストールディレクトリ/ lib /のjlineパッケージバージョンと同じである必要があります。!!
インストールは終了しました、残りは続きます!