前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Mapreduce实现原理总结

Mapreduce实现原理总结

作者头像
z小赵
发布2018-09-05 15:28:01
8090
发布2018-09-05 15:28:01
举报
文章被收录于专栏:简单聊聊Spark简单聊聊Spark

一.首先,我们从客户端,JobTracker,TaskTracker这个层面来分析整个mapreduce过程

①.首先在客户端启动一个作业。

②.客户端向JobTracker申请一个作业号,这个作业号默认是以当前的时间组成的,可以通过mapreduce.job.name(2.0以后使用的参数)或mapred.job.name(1.0使用的参数)参数来指定作业的名字。

③.框架会将本次要执行的作业资源文件从本地复制到HDFS上面,复制的资源文件主要包括MapReduce打包的Jar文件(默认是10份),配置文件和客户端计算所得的输入划分信息。这些文件会被存放在一个名为JobID的文件夹下面。

④.JobTracker接收到作业以后,将其放入到一个作业队列中去,等待作业调度线程对其调用,当作业调度线程根据算法调度到该作业的时候(默认是FIFO机制),会根据划分信息为每一个划分信息创建一个map任务,然后创建的map任务分配给TaskTracker去执行;这里将map分配给TaskTracker的规则是:将map分配给当前任务要处理的数据存放位置对应的那个TaskTracker节点上去执行(这个就是数据本地化,移动任务执行位置,而不是移动数据位置,从而提高效率)

⑤.TaskTracker和JobTracker之间通过心跳机制保持联系,即TaskTracker每隔一段时间会向JobTracker汇报自己的运行情况;当最后一个任务完成时,JobTracker会将这个任务标记为“成功”,JobClient查询的时候会向相关的执行结果告知用户。

二.从shuffle和排序的角度来分析一下整个TaskTracker执行流程

   i>Map端执行流程

       ①.每个输入分片通过一个map任务来处理,map的输出暂时存入一个环形缓冲区中(该缓冲区默认大小为100M,阈值为80%),当缓冲区要溢出的时候,在本地系统中创建一个溢出文件,将溢出内容写入到该溢出文件中。

       ②.在写入本地磁盘之前,后台线程首先根据reduce任务的数目将数据划分成相同数目的分区,然后将要写入到本地磁盘的数据hash的方式写入一个分区中,然后对每个分区中的数据进行排序,如果有Combiner,则对排序后的数据做Combiner操作。

       ③.将分区中的数据拷贝到相应的reduce任务中。至此,map阶段完成

ii>Reduce端执行流程

        ①.Reduce端接收数据,如果数据很小的话,直接存入缓冲区,当缓冲区数据超过一定比例以后,就进行数据合并操作并溢写到磁盘。

        ②.随着溢写文件不断增多,后台线程将溢写的文件在进行一次合并,变为一个更大的文件。

        ③.最后一次将合并的结果输出到reduce函数中,reduce函数将相关处理结果写入HDFS中。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017.09.20 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档