Hive是一种数据仓库,可以使用sql语句去操作haoop中hdfs中的文件查询。(本质上是把Hive发送的sql语句在内部转换成可以执行的mapreduce程序),(迭代数据无法表达,处理时间较长等缺点)
首先,去官网下载Hive的-bin.tar.gz的压缩包,然后发送到虚拟机上。
一:解压:
tar -xzvf apache-hive-2.3.3-bin.tar.gz -C /opt/module
二:文件夹重命名:(这一步可以不用配置,配置了方便以后好写一些)
三:把 Hive 添加到 PATH 路径中:
四:配置hive-env.sh文件:
进入apache-hive-2.3.3-bin/conf目录:
cp hive-default.xml.template hive-site.xml;
在hive-site.xml配置文件中加上一下内容:
<property>
<name>system:java.io.tmpdir</name>
<value>/tmp</value>
</property>
<property>
<name>system:user.name</name>
<value>${user.name}</value>
</property>
五:在hive-site.xml
文件中找到下面 4 个属性, 并修改为所示的值(733).
<name>hive.scratch.dir.permission</name>
<value>733</value>
六:找 Hadoop 的 core-site.xml
, 增加如下两个属性:
扫描二维码关注公众号,回复:
3881796 查看本文章
<property>
<name>hadoop.proxyuser.atguigu.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.atguigu.groups</name>
<value>*</value>
</property>
七:注意: 上面 atguigu
是你的的 Linux 登录的用户名.
这上面参考的很多老师的资料,由于内部规定,所以就不贴出老师给我们的网址了,但是还是有必要要声明一下,这个基本上大部分都是截的老师的图,所以这个属于老师的劳动成果,我也有必要尊重原创,感谢尚硅谷老师的资料。