前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >揭开Spark Streaming神秘面纱⑤ - Block 的生成与存储

揭开Spark Streaming神秘面纱⑤ - Block 的生成与存储

作者头像
codingforfun
发布2018-08-24 15:02:48
3150
发布2018-08-24 15:02:48
举报

ReceiverSupervisorImpl共提供了4个将从 receiver 传递过来的数据转换成 block 并存储的方法,分别是:

  • pushSingle: 处理单条数据
  • pushArrayBuffer: 处理数组形式数据
  • pushIterator: 处理 iterator 形式处理
  • pushBytes: 处理 ByteBuffer 形式数据

其中,pushArrayBuffer、pushIterator、pushBytes最终调用pushAndReportBlock;而pushSingle将调用defaultBlockGenerator.addData(data),我们分别就这两种形式做说明

pushAndReportBlock

我们针对存储 block 简化 pushAndReportBlock 后的代码如下:

代码语言:javascript
复制
def pushAndReportBlock(
  receivedBlock: ReceivedBlock,
  metadataOption: Option[Any],
  blockIdOption: Option[StreamBlockId]
) {
  ...
  val blockId = blockIdOption.getOrElse(nextBlockId)
  receivedBlockHandler.storeBlock(blockId, receivedBlock)
  ...
}

首先获取一个新的 blockId,之后调用 receivedBlockHandler.storeBlock, receivedBlockHandlerReceiverSupervisorImpl 构造函数中初始化。当启用了 checkpoint 且 spark.streaming.receiver.writeAheadLog.enabletrue 时,receivedBlockHandler 被初始化为 WriteAheadLogBasedBlockHandler 类型;否则将初始化为 BlockManagerBasedBlockHandler类型。

WriteAheadLogBasedBlockHandler#storeBlock 将 ArrayBuffer, iterator, bytes 类型的数据序列化后得到的 serializedBlock

  1. 交由 BlockManager 根据设置的 StorageLevel 存入 executor 的内存或磁盘中
  2. 通过 WAL 再存储一份

BlockManagerBasedBlockHandler#storeBlock将 ArrayBuffer, iterator, bytes 类型的数据交由 BlockManager 根据设置的 StorageLevel 存入 executor 的内存或磁盘中,并不再通过 WAL 存储一份

pushSingle

pushSingle将调用 BlockGenerator#addData(data: Any) 通过积攒的方式来存储数据。接下来对 BlockGenerator 是如何积攒一条一条数据最后写入 block 的逻辑。

上图为 BlockGenerator 的各个成员,首选对各个成员做介绍:

currentBuffer

变长数组,当 receiver 接收的一条一条的数据将会添加到该变长数组的尾部

  • 可能会有一个 receiver 的多个线程同时进行添加数据,这里是同步操作
  • 添加前,会由 rateLimiter 检查一下速率,是否加入的速度过快。如果过快的话就需要 block 住,等到下一秒再开始添加。最高频率由 spark.streaming.receiver.maxRate 控制,默认值为 Long.MaxValue,具体含义是单个 Receiver 每秒钟允许添加的条数。

blockIntervalTimer & blockIntervalMs

分别是定时器和时间间隔。blockIntervalTimer中有一个线程,每隔blockIntervalMs会执行以下操作:

  1. 将 currentBuffer 赋值给 newBlockBuffer
  2. 将 currentBuffer 指向新的空的 ArrayBuffer 对象
  3. 将 newBlockBuffer 封装成 newBlock
  4. 将 newBlock 添加到 blocksForPushing 队列中

blockIntervalMs 由 spark.streaming.blockInterval 控制,默认是 200ms。

blockPushingThread & blocksForPushing & blockQueueSize

blocksForPushing 是一个定长数组,长度由 blockQueueSize 决定,默认为10,可通过 spark.streaming.blockQueueSize 改变。上面分析到,blockIntervalTimer中的线程会定时将 block 塞入该队列。

还有另一条线程不断送该队列中取出 block,然后调用 ReceiverSupervisorImpl.pushArrayBuffer(...) 来将 block 存储,这条线程就是blockPushingThread。

PS: blocksForPushing为ArrayBlockingQueue类型。ArrayBlockingQueue是一个阻塞队列,能够自定义队列大小,当插入时,如果队列已经没有空闲位置,那么新的插入线程将阻塞到该队列,一旦该队列有空闲位置,那么阻塞的线程将执行插入

以上,通过分析各个成员,也说明了 BlockGenerator 是如何存储单条数据的。


本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016.04.10 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • pushAndReportBlock
  • pushSingle
    • currentBuffer
      • blockIntervalTimer & blockIntervalMs
        • blockPushingThread & blocksForPushing & blockQueueSize
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档