Hive的环境搭建

Hive是一种数据仓库,可以使用sql语句去操作haoop中hdfs中的文件查询。(本质上是把Hive发送的sql语句在内部转换成可以执行的mapreduce程序),(迭代数据无法表达,处理时间较长等缺点)

首先,去官网下载Hive的-bin.tar.gz的压缩包,然后发送到虚拟机上。

              一:解压:

tar -xzvf apache-hive-2.3.3-bin.tar.gz -C /opt/module

               二:文件夹重命名:(这一步可以不用配置,配置了方便以后好写一些)

                三:把 Hive 添加到 PATH 路径中:

                四:配置hive-env.sh文件:

                   进入apache-hive-2.3.3-bin/conf目录:

                                cp hive-default.xml.template hive-site.xml;

                                 在hive-site.xml配置文件中加上一下内容:

 <property>
     <name>system:java.io.tmpdir</name>
     <value>/tmp</value>
 </property>
 <property>
     <name>system:user.name</name>
     <value>${user.name}</value>
 </property>

        五:在hive-site.xml 文件中找到下面 4 个属性, 并修改为所示的值(733).

<name>hive.scratch.dir.permission</name>
 <value>733</value>

       六:找 Hadoop 的 core-site.xml, 增加如下两个属性:

扫描二维码关注公众号,回复: 3881796 查看本文章
<property>
    <name>hadoop.proxyuser.atguigu.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.atguigu.groups</name>
    <value>*</value>
</property>

      七:注意: 上面 atguigu 是你的的 Linux 登录的用户名.

这上面参考的很多老师的资料,由于内部规定,所以就不贴出老师给我们的网址了,但是还是有必要要声明一下,这个基本上大部分都是截的老师的图,所以这个属于老师的劳动成果,我也有必要尊重原创,感谢尚硅谷老师的资料。

猜你喜欢

转载自blog.csdn.net/qq_37076742/article/details/83502851
今日推荐