云框架Hadoop之部署Hive

原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。 http://jeffxie.blog.51cto.com/1365360/305472
<!--正文 begin-->
    数据库是面向事务的设计,数据仓库是面向主题设计的。
数据库是为捕获数据而设计,数据仓库是为分析数据而设计的。
这四句话完全概括了什么是数据库,什么是数据仓库的内涵与精髓。
     前面讲了hadoop的部署,以及hadoop的文件数据系统的应用与部署,这次我们讲的是结构化数据仓库Hive
首先下载hive,我用的是0.3.x,当然你也可以选择其他版本
wget http://archive.cloudera.com/cdh/testing/hive-0.3.99.1+0.tar.gz
然后下载
wget http://archive.apache.org/dist/ant/binaries/apache-ant-1.7.1-bin.tar.gz
解压到hadoop里面
[root@hadoop5 soft]# tar zvxf apache-ant-1.7.1-bin.tar.gz
[root@hadoop5 soft]# mv apache-ant-1.7.1 /home/hadoop/hadoop-0.20.2/
[root@hadoop5 soft]# tar zvxf hive-0.3.99.1+0.tar.gz
[root@hadoop5 soft]# mv hive-0.3.99.1+0 /home/hadoop/hadoop-0.20.2/contrib/hive
设置环境变量
[root@hadoop5 soft]# vi /etc/profile
把如下内容加到最下面
export JAVA_HOME=/usr/local/jdk1.6.0_18
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin:$PATH
export HADOOP_HOME=/home/hadoop/hadoop-0.20.2
export PATH=$PATH:$HADOOP_HOME/bin
export ANT_HOME=$HADOOP_HOME/apache-ant-1.7.1
export PATH=$PATH:/usr/local/hadoop/bin:$JAVA_HOME/bin:$HADOOP_HOME/contrib/hive/bin:$ANT_HOME/bin
export ANT_LIB=$HADOOP_HOME/apache-ant-1.7.1/lib

[root@hadoop5 soft]# . /etc/profile

刚开始初始化仓库的时候,需要修改hive配置文件
[root@hadoop5 hadoop]# vi /home/hadoop/hadoop-0.20.2/contrib/hive/conf/hive-default.xml
只要改一个地方,使其内容为:/home/hadoop/hadoop-0.20.2/contrib/hive/lib/hive_hwi.war
位置大概是在300行左右的样子

接着启动hive的web功能
命令是: hive --service hwi &
如果看到类似如下信息字样,就证明hive启动成功了

另外hive默认监听端口为9999,当然你可以自己到hive-default.xml配置文件中定制。浏览器的访问url为 http:/hadoop:9999/hwi.
注:hive的数据表的存放位置为hdfs,默认是 /user/hive .这个路径只有通过hadoop shell才能看见(不是/usr)
下面我们去shell下看看hive

另外/home/hadoop/hadoop-0.20.2/docs/cn目录下有中文文档,大家可以参见练习hive命令,或等我下次的教程。
好了,教程就到这里,下次解占辉带给大家的依然是hive相关知识,敬请期待!

本文出自 “云计算架构师-解占辉” 博客,请务必保留此出处http://jeffxie.blog.51cto.com/1365360/305472

猜你喜欢

转载自thomas0988.iteye.com/blog/1484556