前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >《快学BigData》--Hadoop总结(C)(36)

《快学BigData》--Hadoop总结(C)(36)

作者头像
小徐
发布2019-08-05 14:41:57
5282
发布2019-08-05 14:41:57
举报
文章被收录于专栏:GreenplumGreenplum

Hadoop总结 - - - - - - - - - - - - - - - - - - - - - - - - - - - - 210

概述 - - - - - - - - - - - - - - - - - - - - - - - - - - - - 211

CDH - - - - - - - - - - - - - - - - - - - - - - - - - - - - 211

安装Hadoop2.6.4 非Zookeeper集群版 - - - - - - - - - - - - - - - 211

安装Hadoop2.6.4 Zookeeper集群版 - - - - - - - - - - - - - - - 216

MapReduce整体的流程详解 - - - - - - - - - - - - - - - - - - - - 225

Hadoop HDFS 系统详解 - - - - - - - - - - - - - - - - - - - - - 226

JAVA 操作HDFS - - - - - - - - - - - - - - - - - - - - - - - - 241

Hadoop MapReduce 实例 - - - - - - - - - - - - - - - - - - - - 248

Hadoop 其他总结 - - - - - - - - - - - - - - - - - - - - - - - - 259

Hadoop 优化总结 - - - - - - - - - - - - - - - - - - - - - - - - 259

MapReduce整体的流程详解

1、MapTask会去执行InputFormat的getRecordRead的方法

2、getRecordRead去执行LineRecordReader组件中的RecordRead方法中的nextKey与nextValue去获取数据

3、nextKey与nextValue去split重拿数据

4、在回到MapTask去执行key与value

5、在wordCountMapper中map去获取数据,最后再把数据通过上下文context写出去

6、MapOuputConllecter中的conllecter(key,value),也就是reduce阶段

7、拿到上一步的数据后会落入到唤醒缓冲区中做排序与溢出,在溢出时会用到compareTo组件进行排序

8、拿到上一步的溢出数据后通过组件splier溢出到磁盘

9、内部的merge组件会把小文件合并成大文件

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-03-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 河马coding 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • MapReduce整体的流程详解
相关产品与服务
大数据
全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档