Kettle连接Hadoop与Hive

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/yvigmmwfn/article/details/45482423

引用:http://blog.csdn.net/john_f_lau/article/details/18676005

Kettle 5.3.0
Hadoop 2.6.0


步骤一:
cd  %KETTLE_HOME%\plugins\pentaho-big-data-plugin\hadoop-configurations
把cdh52文件夹拷贝改成hadoop-2.6
步骤二:
进行修改后的hadoop-2.6\lib\client删除当前目录下的所有jar包
步骤三:
把安装好的$HADOOP_HOME/share/hadoop/common、hdfs、mapreduce、yarn下的jar包与对应目录下的lib下的jar包拷贝到
%KETTLE_HOME%\plugins\pentaho-big-data-plugin\hadoop-configurations\hadoop-2.6\lib\client
步骤四:
修改%KETTLE_HOME%\plugins\pentaho-big-data-plugin\plugin.properties
active.hadoop.configuration=hadoop-0.2
改成
active.hadoop.configuration=hadoop-2.6






HIVE连接测试

测试连接成功,如果没有成功,注意如下:

1、删除当前用户下的缓存文件,如:.kettle、.pentaho  (这个是比较麻烦的事情)

2、重新确认JAR是否导入正确。





















猜你喜欢

转载自blog.csdn.net/yvigmmwfn/article/details/45482423