前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Spark Task 的执行流程④ - task 结果的处理

Spark Task 的执行流程④ - task 结果的处理

作者头像
codingforfun
发布2018-08-24 16:02:18
3790
发布2018-08-24 16:02:18
举报

本文为 Spark 2.0 源码分析笔记,其他版本可能稍有不同

Spark Task 的执行流程③ - 执行 task一文中介绍了 task 是如何执行并返回 task 执行结果的,本文将进一步介绍 task 的结果是怎么处理的。

worker 端的处理

处理 task 的结果是在 TaskRunner#run() 中进行的,紧接着 task 执行步骤,结果处理的核心流程如下:

我们进一步展开上图中浅灰色背景步骤,根据 resultSize(序列化后的 task 结果大小) 大小的不同,共有三种情况:

  • resultSize > spark.driver.maxResultSize 配置值(默认1G):直接丢弃,若有必要需要修改 spark.driver.maxResultSize 的值。此时,serializedResult 为序列化的 IndirectTaskResult 对象,driver 之后通过该对象是获得不到结果的
  • resultSize > maxDirectResultSize 且 resultSize <= spark.driver.maxResultSize 配置值:maxDirectResultSize 为配置的 spark.rpc.message.maxSizespark.task.maxDirectResultSize 更小的值;这种情况下,会将结果存储到 BlockManager 中。此时,serializedResult 为序列化的 IndirectTaskResult 对象,driver 之后可以通过该对象在 BlockManager 系统中拉取结果
  • resultSize <= maxDirectResultSize:serializedResult 直接就是 serializedDirectResult

在拿到 serializedResult 之后,调用 CoarseGrainedExecutorBackend#statusUpdate 方法,如下:

代码语言:javascript
复制
execBackend.statusUpdate(taskId, TaskState.FINISHED, serializedResult)

该方法会使用 driverRpcEndpointRef 发送一条包含 serializedResult 的 StatusUpdate 消息给 driver (更具体说是其中的 CoarseGrainedSchedulerBackend 对象)

driver 端的处理

driver 端的 CoarseGrainedSchedulerBackend 在收到 worker 端发送的 StatusUpdate 消息后,会进行一系列的处理,包括调用 TaskScheduler 方法以做通知,主要流程如下:

其中,需要说明的是 Task 的状态只有为 FINISHED 时才成功,其他值(FAILED, KILLED, LOST)均为失败。


本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016.12.05 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • worker 端的处理
  • driver 端的处理
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档