hadoop之CombineTextInputFormat

上图是InputFormat的派生子类关系图,这篇主要讲解CombineFileInputDormat的实现类——>CombineTextInputFormat 

由于InputFormat是一个抽象类,不同的实现类,分片机制不同,如下图:

一,CombineTextInputFormat切片机制:

框架默认使用的TextInputFormat 切片机制是对任务按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个MapTask,这样如果有大量小文件,就会产生大量的MapTask,处理效率极其低下。

 1.应用场景:

CombineTextInputFormat 用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个MapTask 处理。

2、虚拟存储切片最大值设置

CombineTextInputFormat.setMaxInputSplitSize(Job,4194304)://4m

注意:虚拟存储切片最大值设置最好根据实际的小文件大小情况类设置具体的值。

扫描二维码关注公众号,回复: 13425918 查看本文章

3.切片机制:

生成切片过程包括:虚拟存储过程和切片过程两个部分。

切片机制:

当把虚拟存储切片的最大值设为4M :setMaxInputSplitSize 值为4M

有如下文件:

a.txt  1.7M

b.txt  5.1M

c.txt  3.4M

d.txt  6.8M

虚拟存储过程:(它自己会对小文件进行再分一次)

1.7M  < 4 M  划分为一块,

5.1M > 4M 但是小于2*4M,划分为两块,块一 :2.55M  块二:2.55M

3.4 M < 4M 划分为一块,

6.8M > 4M 但是小于2* 4M,划分为两块, 块一:3.4M,块二:3.4M。

最终存储的文件:

1.7M,2.55M,2.55M,3.4M,3.4M,3.4M

切片过程:

(a)判断虚拟存储的文件大小是否大于setMaxInputSplitSize的值,大于等于则单独形成一个切片。

(b) 如果不大于则跟下一个虚拟存储文件进行合并,共同形成一个切片。

最终会形成三个切片:

(1.7+2.55)M, (2.55+3.4)M,(3.4+3.4)M

详细:

(1)虚拟存储过程:

将输入目录下所有文件大小,依次和设置的setMaxInputSplitSize值比较,如果不大于设置的最大值,逻辑上划分一个块。如果输入文件大于设置的最大值且大于两倍,那么以最大值切割一块;当剩余数据大小超过设置的最大值且不大于最大值2倍,

此时将文件均分成2个虚拟存储块(防止出现太小切片)。

例如setMaxInputSplitSize值为4M,输入文件大小为8.02M,则先逻辑上分成一个4M。剩余的大小为4.02M,如果按照4M逻辑划分,就会出现0.02M的小的虚拟存储文件,所以将剩余的4.02M文件切分成(2.01M和2.01M)两个文件。

(2)切片过程:

(a)判断虚拟存储的文件大小是否大于setMaxInputSplitSize值,大于等于则单独形成一个切片。

(b)如果不大于则跟下一个虚拟存储文件进行合并,共同形成一个切片。

(c)测试举例:有4个小文件大小分别为1.7M、5.1M、3.4M以及6.8M这四个小文件,则虚拟存储之后形成6个文件块,大小分别为:

1.7M,(2.55M、2.55M),3.4M以及(3.4M、3.4M)

最终会形成3个切片,大小分别为:

(1.7+2.55)M,(2.55+3.4)M,(3.4+3.4)M

案例:

1.需求

将输入的大量小文件合并成一个切片统一处理。

(1)输入数据

准备4个小文件

(2)期望

期望一个切片处理4个文件

2.实现过程

(1)不做任何处理,WordCount案例程序,观察切片个数为4

(2)在WordcountDriver中增加如下代码,运行程序,并观察运行的切片个数为1

// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);

//虚拟存储切片最大值设置1m
CombineTextInputFormat.setMaxInputSplitSize(job,1048576);

猜你喜欢

转载自blog.csdn.net/Hao_JunJie/article/details/115165773