本篇内容介绍了“Hadoop和spark为何要对key进行排序”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
只要对hadoop
中mapreduce
的原理清楚的都熟知下面的整个流程运行原理,其中涉及到至少三次排序,分别是溢写快速排序,溢写归并排序,reduce
拉取归并排序,而且排序是默认的,即天然排序的,那么为什么要这么做的,设计原因是什么。先给个结论,为了整体更稳定,输出满足多数需求,前者体现在不是采用hashShuffle
而是sortShuffle
,后者体现在预计算,要知道排序后的数据,在后续数据使用时的会方便很多,比如体现索引的地方,如reduce
拉取数据时候。
在分析设计原因之前,先理解一下整个过程,在map
阶段,根据预先定义的partition
规则进行分区,map
首先将输出写到缓存中,当缓存内容达到阈值时,将结果spill
到硬盘,每一次spill
都会在硬盘产生一个spill
文件,因此一个map task可能会产生多个spill
文件,其中在每次spill
的时候会对key
进行排序。接下来进入shuffle
阶段,当map
写出最后一个输出,需要在map
端进行一次merge
操作,按照partition
和partition
内的key
进行归并排序(合并+排序),此时每个partition
内按照key
值整体有序。然后开始第二次merge
,这次是在reduce
端,在此期间数据在内存和磁盘上都有,其实这个阶段的merge
并不是严格意义上的排序,也是跟前面类似的合并+排序,只是将多个整体有序的文件merge
成一个大的文件,最终完成排序工作。分析完整个过程后,是不是觉得如果自己实现MapReduce
框架的话,考虑用HashMap
输出map内容即可。
整个流程图如下:
详细步骤:
首先,读取数据组件InputFormat
(默认TextInputFormat
)会通过getSplits
方法对输⼊入⽬目录中文件进行逻辑切⽚片规划得到splits
,有多少个split
就对应启动多少个MapTask
。split
与block
的对应关系默认是⼀对⼀。
将输入文件切分为splits
之后,由RecordReader
对象(默认LineRecordReader
)进行读取,以\n
作为分隔符,读取⼀行数据,返回<key,value>
。Key
表示每⾏行行⾸首字符偏移值,value
表示这⼀行文本内容。
读取split
返回<key,value>
,进⼊入⽤用户自己继承的Mapper
类中,执行用户重写的map
函数。RecordReader
读取⼀行这里调用一次。
map
逻辑完之后,将map
的每条结果通过context.write
进⾏行行collect
数据收集。在collect
中,会先对其进行分区处理,默认使用HashPartitioner
。MapReduce
提供Partitioner
接口,它的作用就是根据key
或value
及reduce
的数量来决定当前的这对输出数据最终应该交由哪个reduce task
处理。默认对key hash
后再以reduce task
数量量取模。默认的取模方式只是为了平均reduce
的处理能力,如果用户自己对Partitioner
有需求,可以订制并设置到job
上。
接下来,会将数据写入内存,内存中这⽚片区域叫做环形缓冲区,缓冲区的作用是批量量收集map
结果,减少磁盘IO
的影响。我们的key/value
对以及Partition
的结果都会被写⼊入缓冲区。当然写⼊入之前,key
与value
值都会被序列列化成字节数组
环形缓冲区其实是一个数组,数组中存放着key
、value
的序列化数据和key
、value
的元数据信息,包括partition
、key
的起始位置、value
的起始位置以及value
的长度。环形结构是一个抽象概念。
缓冲区是有大小限制,默认是100MB
。当map task
的输出结果很多时,就可能会撑爆内存,所以需要在一定条件下将缓冲区中的数据临时写⼊入磁盘,然后重新利利⽤用这块缓冲区。这个从内存往磁盘写数据的过程被称为Spill
,中文可译为溢写。这个溢写是由单独线程来完成,不影响往缓冲区写map结果的线程。溢写线程启动时不不应该阻⽌止
map的结果输出,所以整个缓冲区有个溢写的⽐比例例spill.percent
。这个⽐比例例默认是0.8
,也就是当缓冲区的数据已经达到阈值(buffer size * spillpercent = 100MB * 0.8 = 80MB)
,溢写线程启动,锁定这80MB
的内存,执行溢写过程Maptask
的输出结果还可以往剩下的20MB
内存中写,互不不影响、
当溢写线程启动后,需要对这80MB
空间内的key
做排序(Sort
)。排序是MapReduce
模型默认的⾏行行为!
如果job
设置过Combiner
,那么现在就是使⽤用Combiner
的时候了了。将有相同key
的key/value
对的value
加起来,减少溢写到磁盘的数据量量。Combiner
会优化MapReduce
的中间结果,所以它在整个模型中会多次使用。
那哪些场景才能使⽤用Combiner
呢?从这⾥里里分析,Combiner
的输出是Reducer
的输⼊,Combiner
绝不不能改变最终的计算结果。Combiner
只应该⽤用于那种Reduce
的输入key/value
与输出key/value
类型完全一致,且不不影响最终结果的场景。⽐比如累加,最⼤大值等。Combiner
的使⽤用一定得慎重如果用的好,它对job
执⾏行行效率有帮助,反之会影响reduce
的最终结果
合并溢写文件:每次溢写会在磁盘上生成一个临时文件(写之前判断是否有combiner
),如果map
的输出结果真的很大,有多次这样的溢写发生,磁盘上相应的就会有多个临时文件存在。当整个数据处理理结束之后开始对磁盘中的临时文件进⾏行行merge
合并,因为最终文件只有一个,写⼊磁盘,并且为这个文件提供了一个索文件,以记录每个reduce
对应数据的偏移量量。
Reduce
⼤大致分为copy
、sort
、reduce
三个阶段,重点在前两个阶段。copy
阶段包含⼀一个 eventFetcher
来获取已完成的map
列列表,由Fetcher线程去copy
数据,在此过程中会启动两个merge
线程,分别为inMemoryMerger
和onDiskMerger
,分别将内存中的数据merge
到磁盘和将磁盘中的数据进⾏merge
。待数据copy
完成之后,copy
阶段就完成了,开始进⾏行行sort
阶段,sort
阶段主要是执⾏finalMerge
操作,纯粹的sort
阶段,完成之后就是reduce
阶段,调⽤用⽤用户定义的reduce
函数进⾏处理。 详细步骤
简单地拉取数据。Reduce
进程启动一些数据copy
线程(Fetcher
),通过HTTP
方式请求maptask
获取属于自己的文件。
Merge
阶段。这⾥里里的merge
如map
端的merge
动作,只是数组中存放的是不不同map
端copy
来的数值。Copy
过来的数据会先放入内存缓冲区中,这⾥里里的缓冲区大小要⽐比map
端的更更为灵活。merge
有三种形式:内存到内存;内存到磁盘;磁盘到磁盘。默认情况下第⼀一种形式不不启⽤用。当内存中的数据量量到达一定阈值,就启动内存到磁盘的merge
。与map
端类似,这也是溢写的过程,这个过程中如果你设置有Combiner
,也是会启⽤用的,然后在磁盘中生成了了众多的溢写文件。第二种merge方式⼀一直在运⾏行行,直到没有map
端的数据时才结束,然后启动第三种磁盘到磁盘的merge
方式生成最终的文件。
把分散的数据合并成一个⼤大的数据后,还会再对合并后的数据排序。对排序后的键值对调⽤用reduce
方法,键相等的键值对调⽤用一次reduce
方法,每次调⽤用会产生零个或者多个键值对,最后把这些输出的键值对写入到HDFS
文件中。
“Hadoop和spark为何要对key进行排序”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。