Hive中数据倾斜原因及处理

1数据倾斜的表现(数据分配不均匀)

  • 任务进度长时间维持在99%(或100%),看任务监控页面,发现只有少量(1个
    或几个) reduce子任务未完成。因为其处的数据量和其他 reduce差异过大。
  • 单一 reduce的记录数与平均记录数差过大,通常可能达到3倍甚至更多。
  • 最长时长远大于平均时长。

2数据倾斜产生的原因

key分布不均匀、业务数据特性、建表问题、某SQL语句本身就有数据倾斜(join连接、group by分组和 Count Distinct计算去重后的数量)。

关键词 情形 后果
Join 其中一个表较小,但是key集中 分发到某一个或几个Reduce上的数据远高于平均值
大表与大表,但是分桶的判断字段0值或空值过多 这些空值都由一个reduce处理,灰常慢
group by group by 维度过小,某值的数量过多 处理某值的reduce灰常耗时
Count Distinct 某特殊值过多 处理此特殊值的reduce耗时

3数据倾斜的解决方案

3.1参数调节:

hive.map.aggr=true

Map 端部分聚合,相当于Combiner

hive.groupby.skewindata =true

有数据倾斜的时候进行负载均衡,当选项设定为 true,生成的查询计划会有两个 MR Job。第一个 MR Job 中,Map 的输出结果集合会随机分布到 Reduce 中,每个 Reduce 做部分聚合操作,并输出结果,这样处理的结果是相同的 Group By Key 有可能被分发到不同的 Reduce 中,从而达到负载均衡的目的;第二个 MR Job 再根据预处理的数据结果按照 Group By Key 分布到 Reduce 中(这个过程可以保证相同的 Group By Key 被分布到同一个 Reduce 中),最后完成最终的聚合操作。

3.2 SQL语句调节:

如何 Join

关于驱动表的选取,选用join key分布最均匀的表作为驱动表

做好列裁剪和filter操作,以达到两表做join的时候,数据量相对变小的效果。

大小表 Join

使用map join让小的维度表(1000条以下的记录条数) 先进内存。在map端完成reduce.

大表 Join 大表:

把空值的key变成一个字符串加上随机数,把倾斜的数据分到不同的reduce上,由于null值关联不上,处理后并不影响最终结果。

count distinct 大量相同特殊值

count distinct时,将值为空的情况单独处理,如果是计算count distinct,可以不用处理,直接过滤,在最后结果中加1。如果还有其他计算,需要进行group by,可以先将值为空的记录单独处理,再和其他计算结果进行union。

group by 维度过小:

采用sum() group by的方式来替换count(distinct)完成计算。

特殊情况特殊处理:

在业务逻辑优化效果的不大情况下,有些时候是可以将倾斜的数据单独拿出来处理。最后union回去。

猜你喜欢

转载自blog.csdn.net/wilde123/article/details/118785360