使用Hadoop进行大规模数据的全局排序

Hadoop(某人儿子的一只虚拟大象的名字)是一个复杂到极致,又简单到极致的东西。

说它复杂,是因为一个hadoop集群往往有几十台甚至成百上千台low cost的计算机组成,你运行的每一个任务都要在这些计算机上做任务的分发,执行中间数据排序以及最后的汇总,期间还包含节点发现,任务的重试,故障节点替换等等等等的维护以及异常情况处理。谁叫hadoop集群往往都是由一些平民计算机组成,没事儿罢个工什么的,实在是再寻常不过的事情。

而说其简单,则是因为,上面说到的那些,你通通不用管,你所需要做的,就是写一个程序,当然也可以是脚本,从标准输入读入一条数据,处理完之后,把结果输出到标准输出。

现在,或许你就明白了,hadoop就是一个计算模型。一个分布式的计算模型。

1.1Map和reduce

天下大事,分久必合、合久必分。

所谓分布式计算,就是把一大堆用于计算的数据材料切了,扔到多个锅里面,该焯水的焯水,该油炸的油炸。然后都准备的差不多了,按着一定的先后顺序,比如不好熟的先放,好熟的后放什么的,一块下锅炒成一盘菜出来,端出来上桌。

前面的步骤,就是map,分发。Map的作用就是把输入数据打散,做简单的处理,输出。而hadoop则要先将中间数据排序,这个称为shuffle,然后由reduce把中间数据合并到一起。将最终结果输出。

举个简单的例子:公安局要根据数据库内身份证号获得全国每个地市人口数情况(好吧,这个应该是统计局做的),这个任务落到你的头上了,你应该先把所有的身份证号导出到文件中,每行一个,然后把这些文件交给map。Map中的要做的就是截取身份证号的前面六位,把这六位数字直接输出。然后hadoop会把这些身份证号的前六位排序,把相同的数据都排到一起,交给reduce,reduce判断每次输入的号码是否与上一个处理的相同,相同则累加,不同则把之前的号码,和统计的数值输出。这样,你就获得了各地市的人口数统计。

下面这个图就是map和reduce处理的图示。

使用Hadoop进行大规模数据的全局排序

上图是MapReduce的数据处理视图。分为map,shuffle,reduce三个部分。各map任务读入切分后的大规模数据进行处理并将数据作为一系列key:value对输出,输出的中间数据按照定义的方式通过shuffle程序分发到相应的reduce任务。Shuffle程序还会按照定义的方式对发送到一个reduce任务的数据进行排序。Reduce进行最后的数据处理。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/pxdzs.html