Hive 1.1.0版本安装教程
hive是一个基于HDFS的MapReduce框架,将HQL转化成MapReduce执行,所以使用hive的前提是已经安装了Hadoop。
1.老套路,首先解压 还是以Cloudera发行版:CDH安装为例。
tar -zxf hive-1.1.0-cdh5.14.2.tar.gz
2.解压完后放到指定文件夹下并简写解压后的文件名称
mv hive-1.1.0-cdh5.14.2 /opt/soft/hive110
3.到conf下修改配置文件
cd /opt/soft/hive110/conf/
4.修改配置hive-site.xml
vi hive-site.xml
5.添加内容
xml的表头一定不能忘
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<--! 删除里面内容,只留configuration节点,并在configuration里面添加以下property -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/usr/hive/warehouse</value> //用户存放的信息路径 在hdf,自己设置路径
</property>
<property>
<name>hive.metastore.local</name>
<value>true</value> // hive和mysql装在同一台服务器上才用true,不在本地使用远程才false
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://127.0.0.1:3306/hive?createDatabaseIfNotExist=true</value>
//配置数据库的名字叫hive
//不在本地使用远程才改false,ip改成本机<value>jdbc:mysql://192.168.56.xxx:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value> //登录mysql数据库的账号
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>ok</value> //登录mysql数据库的密码,不需要特别建立hive
</property>
<property>
<name>hive.server2.authentication</name>
<value>NONE</value>
</property>
<property>
<name>hive.server2.thrift.client.user</name>
<value>root</value>
</property>
<property>
<name>hive.server2.thrift.client.password</name>
<value>root</value>
</property>
6.修改环境变量
vi /etc/profile
export HIVE_HOME=/opt/soft/hive110 //hive的路径
export PATH=$PATH: $HIVE_HOME/bin
7.激活配置的环境变量
source /etc/profile
8.加载mysql驱动包
加载mysql5.1.38驱动,看自己使用的mysql的jar包版本(到本地maven仓库jar包去找)到hive 的 /opt/soft/hive110/lib目录下
注意
启动hive之前必须先启动hadoop 、zoopkeeper 和mysql
启动顺序为
按顺序启动:从左往右 hadoop =>zookeeper =>mysql => hive(看到hive提示符号就启动成功)
安装zookeeper
1.先解压
zookeeper-3.4.5-cdh5.14.2.tar.gz
2.一样解压完后放到指定文件夹下并简写解压后的文件名称
mv zookeeper-3.4.5-cdh5.14.2 soft/zk345
3.到conf下修改配置文件
cd soft/zk345/conf/
4.修改配置文件名
cp zoo_sample.cfg zoo.cfg
5.改配置文件
vi zoo.cfg
修改dataDir路径
dataDir=/opt/soft/zk345/tmp
添加本机IP 3387用来选领导
server.1=192.168.56.xxx:2287:3387
6.修改环境变量
vi /etc/profile
找到被注释掉的环境变量,解除注释并添加路径
export ZOOKEEPER_HOME=/opt/soft/zk345
export PATH=$PATH: $ZOOKEEPER_HOME/bin
7.激活环境变量
source /etc/profile
8.启动zookeeper 先启动hadoop,并安装好Mysql驱动再启动zookeeper
zkServer.sh start
如上图所示,说明已启动成功!
最后准备开始启动hive
等hadoop和zookeeper都启动后,启动hive
-
启动hive
hive --service metastore
说明已启动成功hive,这时不能退出,要到新窗口继续操作 -
新窗口建立元数据的数据库
schematool - dbType mysql - initSchema -
进入元数据库
hive
出现这个图标说明进入hive成功!
切换到beeline(相当于用jdbc启动mysql)
退出hive
!quit退出hive数据库 或按2次CTRL+C键退出启动beeline
hiveserver2
这时beeline就启动成功了!
新窗口 输入虚拟机里beeline的URL
beeline -u jdbc:hive2://192.168.56.xxx:10000 -n root
当然beeline可以不启动!能启动hive就好了!后面会给大家讲下zookeeper集群搭建和配置!