Hive环境搭建--轻量级安装so easy!

一、准备工作

1.安装包下载

因为Hive默认的数据库是derby,不支持同时开启两个./hive的命令终端,
而将Hive的默认数据库修改成mysql后,可以解决该问题,并且derby使用不便利,所以此处推荐同时安装mysql
在这里插入图片描述
链接: https://pan.baidu.com/s/1VgKaSIAOmCnT-uJplBWpHQ
提取码: ebxq

2.虚拟机需先安装好hadoop

参考:https://blog.csdn.net/and52696686/article/details/107287066

3.安装mysql

参考:https://blog.csdn.net/and52696686/article/details/106836357

安装完成需要给root用户赋权:

grant all on *.* to root@'%';
flush privileges;

二、安装hive

cd /software  
tar -zxvf hive-1.1.0-cdh5.14.2.tar.gz -C /opt
cd /opt
mv hive-1.1.0-cdh5.14.2/ hive

三、配置环境变量

1.配置环境变量

vi /etc/profile

添加以下内容:

export HIVE_PATH=/opt/hive
export PATH=$PATH:$HIVE_PATH/bin

使环境变量生效:

source /etc/profile

2.修改hive配置文件

①:进入配置文件目录:   cd /opt/hive/conf/
②:创建文件并添加以下内容:   vi hive-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
        <property>
                <name>hive.metastore.warehouse.dir</name>
                <value>hdfs://hadoop-1:9000/hive/warehouse</value>
               <description>管理表存储的位置,可以是linux中的目录,也可以是相对于fs.default.name有关的目录</description>
        </property>
        <property>
                <name>hive.metastore.local</name>
                <value>true</value>
        </property>
        <!-- 指定hive元数据存储的MySQL地址 -->
        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://127.0.0.1:3306/hive?createDatabaseIfNotExist=true</value>
        </property>
        <!-- 元数据存储数据库的驱动 -->
        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
        </property>
        <!-- 元数据存储数据库的用户名 -->
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
        </property>
        <!-- 元数据存储数据库的密码,(注:这里是mysql自己root用户的密码) -->
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>ok</value>
        </property>
</configuration>

直接粘贴上面代码,只需更改红框位置主机名即可
在这里插入图片描述
③:新建hive-env.sh文件,添加以下内容:   vi hive-env.sh

export HADOOP_HOME=/opt/hadoop
export HIVE_HOME=/opt/hive
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HIVE_AUX_JARS_PATH=/opt/hive/lib
export JAVA_HOME=/opt/jdk8
export HIVE_CONF_DIR=/opt/hive/conf

④:修改hive-log4j.properties

扫描二维码关注公众号,回复: 11480917 查看本文章
mv hive-log4j.properties.template hive-log4j.properties
vi hive-log4j.properties

进入文件后在第20行修改hive日志目录:

hive.log.dir=/opt/hive/logs

⑤:新建配置文件需要的目录:

#新建目录/hive/warehouse
hadoop fs -mkdir -p /hive/warehouse
#赋权,然后在可以在hive中创建表
hadoop fs -chmod 777 /hive
hadoop fs -chmod 777 /hive/warehouse

⑥:将下载好的本地mysql-connector-java-5.1.48-bin.jar包拖拽到虚拟机安装hive根目录之lib目录下
在这里插入图片描述

⑦:给hive文件赋权:

chmod 777 /opt/hive

四、启动hive

1.需先初始化数据库

schematool -initSchema -dbType mysql

在这里插入图片描述

2.启动hive(该打开的服务要打开)

启动hive前需要先把hadoop相关进程打开,zookeeper(推荐打开),mysql(一定要打开,特别是用beelin连接数据库时,安全防报错)
即启动顺序:
start-all.sh → zkService.sh start → service mysql start → hive --service metastore → hive
启动hive前,还需启动元数据管理(最安全的启动方法,独占一窗口)用的时候最好一直开着,不用的时候按 ctrl+c 直接中断进程即可

hive --service metastore

.另起一窗口,输入: hive ,进入hive命令模式
在这里插入图片描述
输入: show tables ,显示如下:
在这里插入图片描述
输入exit退出hive命令行

可以在网页hdfs端口(50070)上查看信息
在这里插入图片描述

3.启动第三方插件beeline

需先启动mysql

service mysql start

需启动hiveserver2 服务,也是进程独占一窗口,用的时候窗口一直开着就好

nohup hive --service hiveserver2 &

新建窗口,启动beeline服务

beeline -u jdbc:hive2://localhost:10000

猜你喜欢

转载自blog.csdn.net/and52696686/article/details/107007007