Hive安装【基于centos7.0】

3.0、Hive安装【基于centos7.0】

1、hive安装配置

(1)把apache-hive-1.2.1-bin.tar.gz上传到linux的/opt/software目录下

(2)解压apache-hive-1.2.1-bin.tar.gz到/opt/module/目录下面

[yrx@hadoop102 software]$ tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /opt/module/

(3)修改apache-hive-1.2.1-bin.tar.gz的名称为hive

[yrx@hadoop102 module]$ mv apache-hive-1.2.1-bin/ hive

(4)修改/opt/module/hive/conf目录下的hive-env.sh.template名称为hive-env.sh

[yrx@hadoop102 conf]$ mv hive-env.sh.template hive-env.sh

(5)配置hive-env.sh文件

​ (a)配置HADOOP_HOME路径

export HADOOP_HOME=/opt/module/hadoop-2.7.2

​ (b)配置HIVE_CONF_DIR路径

export HIVE_CONF_DIR=/opt/module/hive/conf

2、hive的基本配置

(1)必须启动hdfs和yarn

[yrx@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
[yrx@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh

(2)在HDFS上创建/tmp和/user/hive/warehouse两个目录并修改他们的同组权限可写

[yrx@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -mkdir /tmp
[yrx@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -mkdir -p /user/hive/warehouse
[yrx@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -chmod g+w /tmp
[yrx@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -chmod g+w /user/hive/warehouse

3、MySQL安装

请看前一篇文章

4、驱动拷贝

1.在/opt/software/mysql-libs目录下解压mysql-connector-java-5.1.27.tar.gz驱动包

[root@hadoop102 mysql-libs]# tar -zxvf mysql-connector-java-5.1.27.tar.gz

2.拷贝/opt/software/mysql-libs/mysql-connector-java-5.1.27目录下的mysql-connector-java-5.1.27-bin.jar到/opt/module/hive/lib/

[root@hadoop102 mysql-connector-java-5.1.27]# cp mysql-connector-java-5.1.27-bin.jar
/opt/module/hive/lib/

5、配置Metastore到MySql(hive默认的元数据管理库不太好用)

1.在/opt/module/hive/conf目录下创建一个hive-site.xml

[yrx@hadoop102 conf]$ touch hive-site.xml
[yrx@hadoop102 conf]$ vi hive-site.xml

2.根据官方文档配置参数,拷贝数据到hive-site.xml文件中

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
   <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://localhost:3306/hive_metastore?createDatabaseIfNotExist=true</value>
        <description>JDBC connect string for a JDBC metastore</description>
        <!-- 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop102 为 localhost -->
        <!-- 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop102 为 localhost -->
        <!-- 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop102 为 localhost -->
        </property>
   <property>
     <name>javax.jdo.option.ConnectionDriverName</name>
     <value>com.mysql.jdbc.Driver</value>
     <description>Driver class name for a JDBC metastore</description>
   </property>
   <property>
     <name>javax.jdo.option.ConnectionUserName</name>
     <value>root</value>
     <description>username to use against metastore database</description>
   </property>
   <property>
     <name>javax.jdo.option.ConnectionPassword</name>
     <value>123456</value>
     <description>password to use against metastore database</description>
   </property>
<property>
    <name>hive.cli.print.header</name>
    <value>true</value>
</property>
<property>
    <name>hive.cli.print.current.db</name>
    <value>true</value>
</property>
<!—- 取消hive的元数据验证,可以避免一些错误 -—>
<property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
</property>
</configuration>

3、初始化元数据库(2.0之后需要初始化hive的元数据信息)

schematool -dbType mysql -initSchema
发布了32 篇原创文章 · 获赞 39 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/yang735136055/article/details/100061081
今日推荐