Hadoop集群中增加与ElasticSearch连接的操作

 

    在没有引入elasticsearch-hadoop-xxx.jar相应的Jar包时,的在Hive中执行ElasticSearch外部表操作,会报如下的异常:        

[plain]  view plain  copy
 
  1. Exception in thread "main" java.io.IOException: Failed on local exception: com.google.protobuf.InvalidProtocolBufferException: Protocol message end-group tag did not match expected tag.; Host Details : local host is: "ip-172-17-30-146/172.17.30.146"; destination host is: "ip-172-17-30-146":9000;   
    通过Spark查看执行任务的MR日志,报错如下:
    
[plain]  view plain  copy
 
  1. .hadoop.mapreduce.v2.app.MRAppMaster failed in state INITED; cause: org.apache.hadoop.yarn.exceptions.YarnRuntimeException: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.elasticsearch.hadoop.mr.EsOutputFormat not found  
  2. org.apache.hadoop.yarn.exceptions.YarnRuntimeException: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.elasticsearch.hadoop.mr.EsOutputFormat not found  

    此时报的是Yarn服务器上面找不到ES-Hadoop相关的类,此时需要做的将elasticsearch-hadoop-xxx.jar增加到Hadoop相关应用的环境中,根据目前我所用到的环境,需要增加的应用有:    

[plain]  view plain  copy
 
  1. 1.Hive  
  2. 2.Spark  
  3. 3.Yarn  

    需要将elasticsearch-hadoop-xxx.jar增加到所有服务器这些应用的环境中,然后重新执行执行就不会报这个问题了。

    另外:目前我的做法是手动将elasticsearch-hadoop-6.2.4.jar一台一台复制到Yarn服务器的lib目录下,不知道CDH是否有简化的管理功能,可以直接上传对应的Jar包?

    为了操作上的操作,我准备了一个批命令,命令记录如下:    

[plain]  view plain  copy
 
  1. #/data/share_libs是我的第三共享jar包的目录  
  2. cd /data/share_libs  
  3. wget https://artifacts.elastic.co/downloads/elasticsearch-hadoop/elasticsearch-hadoop-6.2.4.zip  
  4. unzip elasticsearch-hadoop-6.2.4.zip  
  5. cd elasticsearch-hadoop-6.2.4/dist  
  6. #注:这里不要把所有elasticsearch-hadoop*.jar文件都拷贝过去了,否则Yarn中会报这些不同的Jar包的版本冲突  
  7. mv elasticsearch-hadoop-6.2.4.jar /opt/cloudera/parcels/CDH-5.14.2-1.cdh5.14.2.p0.3/jars/  
  8. cd /data/share_libs  
  9. #删除不必要的资源  
  10. rm -f elasticsearch-hadoop-6.2.4.zip  
  11. rm -rf elasticsearch-hadoop-6.2.4  
  12. #注:目录/data/share_libs,在Spark中设置为了其第三库的目录,在Hive中也设置为了其auxlib目录,因而在这里建立软件链接后,Spark和Hive都可以使用  
  13. #Spark中设置第三库的目录,可以参看前面一篇文章:https://blog.csdn.net/fenglibing/article/details/80437246  
  14. ln -s /opt/cloudera/parcels/CDH-5.14.2-1.cdh5.14.2.p0.3/jars/elasticsearch-hadoop-6.2.4.jar elasticsearch-hadoop-6.2.4.jar  
  15. cd /opt/cloudera/parcels/CDH-5.14.2-1.cdh5.14.2.p0.3/lib/hadoop-yarn/lib  
  16. ln -s /opt/cloudera/parcels/CDH-5.14.2-1.cdh5.14.2.p0.3/jars/elasticsearch-hadoop-6.2.4.jar elasticsearch-hadoop-6.2.4.jar  

    以下是通过创建一个外部表,然后测试查询的语句:  

[sql]  view plain  copy
 
  1. create external table test_in_es  
  2. (  
  3.     id string,  
  4.     k string,  
  5.     v string  
  6. )  
  7. STORED BY 'org.elasticsearch.hadoop.hive.EsStorageHandler'  
  8. TBLPROPERTIES(  
  9. 'es.nodes' = 'http://vpc-es-xxxxxxxxx.eu-west-1.es.amazonaws.com:80',  
  10. 'es.index.auto.create' = 'false',  
  11. 'es.nodes.wan.only' = 'true',  
  12. 'es.resource' = 'test/test',  
  13. 'es.read.metadata' = 'true',  
  14. 'es.mapping.names' = 'id:_metadata._id,k:k, v:v');  
  15.   
  16. select * from test_in_es;  
  17. 如果你想了解大数据的学习路线,想学习大数据知识以及需要免费的学习资料可以加群:784789432.欢迎你的加入。

猜你喜欢

转载自www.cnblogs.com/h12l4/p/9107714.html
今日推荐