Hive 2.1.0集群安装

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u012157032/article/details/83687823

Hive 2.1.0集群安装

1.配置服务器

1个主节点:master(192.168.20.191),2个(从)子节点,

node1(192.168.20.192),

node2(192.168.20.193)

2.将jdbc的jar包放到$HIVE_HOME下

cd /usr/tools/hive/lib

把mysql-connector-java-5.1.17.jar放到上面的lib目录下

3.安装hive集群 注:hive只在一个节点上安装即可!!!

在master主机上安装hive

安装位置自定,例如安装在/usr/tools目录下面

下载hive包,放在/usr/tools目录下,解压hive

tar -xzvf apache-hive-2.1.0-bin.tar.gz

 

改名:mv apache-hive-2.1.0-bin.tar.gz hive

配置环境变量:

vim /etc/profile

在末尾添加:

## HIVE

export HIVE_HOME=/usr/tools/hive

export HIVE_CONF_DIR=$HIVE_HOME/conf

export CLASSPATH=$CLASSPATH:$HIVE_HOME/lib

export PATH=$PATH:$HIVE_HOME/bin

 

保存后使新编辑的profile生效:source /etc/profile

4.配置hive

cd /usr/tools/hive/conf

cp hive-default.xml.template hive-site.xml

vim hive-site.xml

 

备注:文件单独存放!!!

5.初始化hive操作

切到bin目录下执行:

cd /usr/tools/hive/bin/

./schematool -dbType mysql –initSchema

 

6.启动Metastore服务

启动Metastore服务

执行hive前,需要先启动metastore服务,否则会报错:

./hive --service metastore

 

然后新开一个终端窗口再启动hive:

 

7.测试

show databases;

create database starbucks;

use starbucks;

 

 

 

create table book (id bigint, name string) row format delimited fields terminated by '\t';

show tables;

select * from book;

select count(*) from book;

 

insert into book(id,name) values(1,'liushiting');

 

 

hdfs dfs -lsr /

hdfs dfs -cat /user/hive/warehouse/starbucks.db/book/000000_0

 

 

http://192.168.20.191:50070/explorer.html#/user/hive/warehouse/starbucks.db/book

 

查看hive版本: hive --version

 

 

8.通过远程jdbc方式连接到hive数据仓库

1.启动hiveserver2服务器,监听端口10000

$> hive --service hiveserver2 &

 

 

2.通过beeline命令行连接到hiveserver2

$>beeline

//连接到hive数据库

$beeline>!connect jdbc:hive2://192.168.20.191:10000/starbucks

//显示所有数据库

$beeline>show databases;

 

 

 

 

 

 

 

 

 

猜你喜欢

转载自blog.csdn.net/u012157032/article/details/83687823
今日推荐