0738-6.2.0-如何在Hive中使用多分隔符

文档编写目的

Hive在0.14及以后版本支持字段的多分隔符,参考:

https://cwiki.apache.org/confluence/display/Hive/MultiDelimitSerDe

而Fayson在以前的文章中也基于C5的环境介绍过如何在Hive中使用多分隔符,参考《Hive多分隔符支持示例》。本文主要介绍在CDH6中如何让Hive支持多分隔符。

  • 测试环境

1.Redhat7.2

2.CDH6.2.0

3.Hive2.1

数据准备

如何将多个字符作为字段分割符的数据文件加载到Hive表中,示例数据如下:

字段分隔符为“@#$”

test1@#$test1name@#$test2value
test2@#$test2name@#$test2value
test3@#$test3name@#$test4value

如何将上述示例数据加载到Hive表(multi_delimiter_test)中,表结构如下:

字段名 字段类型
s1 String
s2 String
s3 String

实现方式

1.从CM进入Hive,点击配置搜索aux,在Hive 辅助 JAR 目录 中输入/opt/cloudera/parcels/CDH/lib/hive/contrib,保存更改,重启。

2.准备多分隔符文件并装载到HDFS对应目录

[root@cdh1 ~]# ll -h multi_de.txt 
-rw-r--r-- 1 root root 1.1G Jan  6 23:14 multi_de.txt
[root@cdh1 ~]# tail -10 multi_de.txt 
test2949@#$test2949name@#$test2950value
test2950@#$test2950name@#$test2951value
test2951@#$test2951name@#$test2952value
test2952@#$test2952name@#$test2953value
test2953@#$test2953name@#$test2954value
test2954@#$test2954name@#$test2955value
test2955@#$test2955name@#$test2956value
test2956@#$test2956name@#$test2957value
test2957@#$test2957name@#$test2958value
test2958@#$test2958name@#$test2959value
[root@cdh1 ~]# hadoop fs -put multi_de.txt /test/
[root@cdh1 ~]# hadoop fs -ls /test/
Found 1 items
-rw-r--r--   3 root supergroup 1079408772 2020-01-06 23:33 /test/multi_de.txt

3.基于准备好的多分隔符文件建表

create external table multi_delimiter_test(
s1 string,
s2 string,
s3 string)
ROW FORMAT SERDE 'org.apache.hadoop.hive.contrib.serde2.MultiDelimitSerDe' WITH SERDEPROPERTIES ("field.delim"="@#$")
stored as textfile location '/test';

4.测试

0: jdbc:hive2://localhost:10000/> select * from multi_delimiter_test limit 10;

0: jdbc:hive2://localhost:10000/> select count(*) from multi_delimiter_test;

常见问题

1.在执行HQL时报错

Error: Error while compiling statement: FAILED: RuntimeException MetaException(message:java.lang.ClassNotFoundException Class org.apache.hadoop.hive.contrib.serde2.MultiDelimitSerDe not found) (state=42000,code=40000)

这是由于没有指定Hive 的辅助 JAR 目录,导致找不到类。需要按照在Cloudera Manager中指定Hive的辅助JAR目录,然后重启,再次查询即可。目录的路径为/opt/cloudera/parcels/CDH/lib/hive/contrib

发布了381 篇原创文章 · 获赞 15 · 访问量 4万+

猜你喜欢

转载自blog.csdn.net/Hadoop_SC/article/details/104308640
今日推荐