前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Spark Core源码精读计划25 | UnifiedMemoryManager——统一内存管理机制

Spark Core源码精读计划25 | UnifiedMemoryManager——统一内存管理机制

作者头像
大数据真好玩
发布2019-08-21 15:33:27
8460
发布2019-08-21 15:33:27
举报
文章被收录于专栏:暴走大数据暴走大数据

目录

  • 前言
  • 统一内存管理器UnifiedMemoryManager
    • 构造方法
    • 计算内存量
    • 统一内存管理布局图示
    • 申请/借用存储内存
    • 申请/借用执行内存
  • 总结

前言

在前文的末尾,我们分析了静态内存管理器StaticMemoryManager的优缺点,并指出统一内存管理器UnifiedMemoryManager能够弥补它的缺点,同时也是目前Spark内存管理的事实标准。本文尽可能深入地剖析UnifiedMemoryManager的具体实现。

统一内存管理器UnifiedMemoryManager

UnifiedMemoryManager与StaticMemoryManager相比,主要有两点改进:

  • 存储内存和执行内存不再是靠比例定死的,而是在一定条件下可以相互借用,更加灵活;
  • 存储内存和执行内存都可以在堆外分配了。

按照惯例,我们仍然从其构造开始看起。

构造方法
代码#25.1 - o.a.s.memory.UnifiedMemoryManager类的构造
代码语言:javascript
复制
private[spark] class UnifiedMemoryManager private[memory] (
    conf: SparkConf,
    val maxHeapMemory: Long,
    onHeapStorageRegionSize: Long,
    numCores: Int)
  extends MemoryManager(
    conf,
    numCores,
    onHeapStorageRegionSize,
    maxHeapMemory - onHeapStorageRegionSize) {

  private def assertInvariants(): Unit = {
    assert(onHeapExecutionMemoryPool.poolSize + onHeapStorageMemoryPool.poolSize == maxHeapMemory)
    assert(
      offHeapExecutionMemoryPool.poolSize + offHeapStorageMemoryPool.poolSize == maxOffHeapMemory)
  }
  assertInvariants()  
}

其构造方法参数与StaticMemoryManager相比有微小的变化,需要传入堆内内存总量maxHeapMemory,以及堆内存储内存空间的量onHeapStorageRegionSize,堆内执行内存空间的量就是两者之差。另外,还会校验堆内、堆外内存池的大小,保证它们与规定的内存总量对的上。

但是,在代码#24.1初始化MemoryManager实现时,调用的UnifiedMemoryManager构造方法只有两个参数,这是因为其伴生对象实现了apply()方法。如果看官对Scala不太熟的话,可以去翻翻Scala官方文档,其中讲述了apply()方法的具体作用。下面还是来看代码。

计算内存量

代码#25.2 - o.a.s.memory.UnifiedMemoryManager.apply()方法

代码语言:javascript
复制
  def apply(conf: SparkConf, numCores: Int): UnifiedMemoryManager = {
    val maxMemory = getMaxMemory(conf)
    new UnifiedMemoryManager(
      conf,
      maxHeapMemory = maxMemory,
      onHeapStorageRegionSize =
        (maxMemory * conf.getDouble("spark.memory.storageFraction", 0.5)).toLong,
      numCores = numCores)
  }

可见,Spark可利用的内存总量(为避免混淆,下面叫“统一内存”)是调用getMaxMemory()方法计算出来的,存储内存占统一内存的初始比例(因为可以借用,所以是初始比例)由配置项spark.memory.storageFraction决定,默认值0.5。剩下的(1 - spark.memory.storageFraction)比例的内存就是执行内存了。

getMaxMemory()方法的代码如下。

代码#25.3 - o.a.s.memory.UnifiedMemoryManager.getMaxMemory()方法

代码语言:javascript
复制
  private def getMaxMemory(conf: SparkConf): Long = {
    val systemMemory = conf.getLong("spark.testing.memory", Runtime.getRuntime.maxMemory)
    val reservedMemory = conf.getLong("spark.testing.reservedMemory",
      if (conf.contains("spark.testing")) 0 else RESERVED_SYSTEM_MEMORY_BYTES)
    val minSystemMemory = (reservedMemory * 1.5).ceil.toLong
    if (systemMemory < minSystemMemory) {
      throw new IllegalArgumentException(s"System memory $systemMemory must " +
        s"be at least $minSystemMemory. Please increase heap size using the --driver-memory " +
        s"option or spark.driver.memory in Spark configuration.")
    }

    if (conf.contains("spark.executor.memory")) {
      val executorMemory = conf.getSizeAsBytes("spark.executor.memory")
      if (executorMemory < minSystemMemory) {
        throw new IllegalArgumentException(s"Executor memory $executorMemory must be at least " +
          s"$minSystemMemory. Please increase executor memory using the " +
          s"--executor-memory option or spark.executor.memory in Spark configuration.")
      }
    }
    val usableMemory = systemMemory - reservedMemory
    val memoryFraction = conf.getDouble("spark.memory.fraction", 0.6)
    (usableMemory * memoryFraction).toLong
  }

该方法的执行流程是:

  • 通过Runtime.maxMemory()这个native方法取得当前JVM可用的最大内存(堆内存)。spark.testing.memory参数是测试参数,几乎不用。
  • 取得保留内存的大小,由常量RESERVED_SYSTEM_MEMORY_BYTES定义,大小是300MB。这个量可以通过spark.testing.reservedMemory参数来改,但同样几乎不用。
  • 以保留内存的1.5倍(也就是450MB)作为Driver和Executor的最小内存并校验之。
  • 用堆内存量减去保留内存量,得到可用内存。spark.memory.fraction配置项指定了统一内存能实际利用的可用内存比例,默认值为0.6(60%),最终返回可用内存与spark.memory.fraction的乘积。

可见,UnifiedMemoryManager的堆内内存布局其实比StaticMemoryManager要简单。因为存储内存和执行内存之间的边界是浮动的,所以展开内存的比例以及安全比例都不再需要了。下面仍然先用一幅框图来形象地表示出来。

统一内存管理布局图示

图中Storage和Execution区域的界限是虚线,并且有上下箭头,表示它们之间的边界是浮动的。

#25.1 - Spark的统一内存管理布局

然后,我们来看看申请内存的方法的实现,其中也包含了借用内存的逻辑。

申请/借用存储内存

以下是重写的acquireStorageMemory()方法代码。

代码#25.4 - o.a.s.memory.UnifiedMemoryManager.acquireStorageMemory()方法

代码语言:javascript
复制
  override def acquireStorageMemory(
      blockId: BlockId,
      numBytes: Long,
      memoryMode: MemoryMode): Boolean = synchronized {
    assertInvariants()
    assert(numBytes >= 0)
    val (executionPool, storagePool, maxMemory) = memoryMode match {
      case MemoryMode.ON_HEAP => (
        onHeapExecutionMemoryPool,
        onHeapStorageMemoryPool,
        maxOnHeapStorageMemory)
      case MemoryMode.OFF_HEAP => (
        offHeapExecutionMemoryPool,
        offHeapStorageMemoryPool,
        maxOffHeapStorageMemory)
    }
    if (numBytes > maxMemory) {
      logInfo(s"Will not store $blockId as the required space ($numBytes bytes) exceeds our " +
        s"memory limit ($maxMemory bytes)")
      return false
    }
    if (numBytes > storagePool.memoryFree) {
      val memoryBorrowedFromExecution = Math.min(executionPool.memoryFree,
        numBytes - storagePool.memoryFree)
      executionPool.decrementPoolSize(memoryBorrowedFromExecution)
      storagePool.incrementPoolSize(memoryBorrowedFromExecution)
    }
    storagePool.acquireMemory(blockId, numBytes)
  }

该方法首先根据MemoryMode决定是在堆内还是在堆外申请存储内存。如果申请量没有超过存储内存池的空闲量,就可以直接调用StorageMemoryPool.acquireMemory()方法申请内存。但若存储池中剩余的内存不够分配,就会试图向执行池借用内存,借用的量为当前执行池空闲量与(块大小 - 当前存储池空闲量)两个量之间的较小者。然后会调用decrementPoolSize()方法缩小执行池,调用incrementPoolSize()方法扩大存储池。

由上面的描述可以看出,借用内存的过程是比较保守的,也就是一次只会借用当时不足的内存量,不会多借。并且借到的内存有可能仍然无法满足需求,这时就只能把原先存储的一部分块淘汰掉了,这部分逻辑之前提到过,参见代码#23.4。

在统一内存管理机制下,展开内存虽然仍属于存储内存的一部分,但不再有边界,所以申请展开内存的方法与申请存储内存完全相同。

代码#25.5 - o.a.s.memory.UnifiedMemoryManager.acquireUnrollMemory()方法

代码语言:javascript
复制
  override def acquireUnrollMemory(
      blockId: BlockId,
      numBytes: Long,
      memoryMode: MemoryMode): Boolean = synchronized {
    acquireStorageMemory(blockId, numBytes, memoryMode)
  }
申请/借用执行内存

这个流程就比较复杂一些了。

代码#25.6 - o.a.s.memory.UnifiedMemoryManager.acquireExecutionMemory()方法

代码语言:javascript
复制
  override private[memory] def acquireExecutionMemory(
      numBytes: Long,
      taskAttemptId: Long,
      memoryMode: MemoryMode): Long = synchronized {
    assertInvariants()
    assert(numBytes >= 0)
    val (executionPool, storagePool, storageRegionSize, maxMemory) = memoryMode match {
      case MemoryMode.ON_HEAP => (
        onHeapExecutionMemoryPool,
        onHeapStorageMemoryPool,
        onHeapStorageRegionSize,
        maxHeapMemory)
      case MemoryMode.OFF_HEAP => (
        offHeapExecutionMemoryPool,
        offHeapStorageMemoryPool,
        offHeapStorageMemory,
        maxOffHeapMemory)
    }

    def maybeGrowExecutionPool(extraMemoryNeeded: Long): Unit = {
      if (extraMemoryNeeded > 0) {
        val memoryReclaimableFromStorage = math.max(
          storagePool.memoryFree,
          storagePool.poolSize - storageRegionSize)
        if (memoryReclaimableFromStorage > 0) {
          val spaceToReclaim = storagePool.freeSpaceToShrinkPool(
            math.min(extraMemoryNeeded, memoryReclaimableFromStorage))
          storagePool.decrementPoolSize(spaceToReclaim)
          executionPool.incrementPoolSize(spaceToReclaim)
        }
      }
    }

    def computeMaxExecutionPoolSize(): Long = {
      maxMemory - math.min(storagePool.memoryUsed, storageRegionSize)
    }

    executionPool.acquireMemory(
      numBytes, taskAttemptId, maybeGrowExecutionPool, () => computeMaxExecutionPoolSize)
  }
代码语言:javascript
复制
来看其内部嵌套定义的方法maybeGrowExecutionPool(),它负责在执行内存不够用时,向存储内存池借用内存,逻辑是:
  • 计算有多少内存能够从存储内存池回收回来。该大小为存储池的空闲空间与之前存储池向执行池借用过的内存量(注意这个描述)的较大值。
  • 如果有内存可以回收,就调用存储池的freeSpaceToShrinkPool()方法,淘汰掉一部分存储块。淘汰掉的块所占内存是理论可回收量与实际需要的执行内存之间的较小值。
  • 调用decrementPoolSize()方法缩小存储池,调用incrementPoolSize()方法扩大执行池。

从这个逻辑可以看出,执行内存不够用时,并不太像是“借用”(borrow)存储内存,而是“占用”或者“回收”(reclaim)。也就是说,执行池可以“要求”存储池淘汰掉自身持有的块来归还曾经借用的空间,而存储池并不会反过来要求执行池也同样归还。其原因在于,存储内存中的块可以方便地持久化到磁盘,而执行内存中的块大多为中间数据(比如Shuffle数据),比较难持久化,并且一旦淘汰掉这些中间数据,整个Task很可能就会直接失败,重算成本太高。

下图示出默认情况下(spark.memory.storageFraction=0.5),内存借用的流程。

图#25.2 - 内存借用示意

在代码#25.6中还有一个嵌套定义的方法computeMaxExecutionPoolSize(),它用于获得执行内存池的最大可能大小,比较简单,不再多说。

这两个嵌套方法都会当做执行内存池的acquireMemory()方法的参数,作为函数传进去。我们在前面略去了ExecutionMemoryPool类的解释过程,所以现在只是大致瞅一眼与申请内存有关的代码。

代码#25.7 - o.a.s.memory.ExecutionMemoryPool.acquireMemory()方法

代码语言:javascript
复制

  private[memory] def acquireMemory(
      numBytes: Long,
      taskAttemptId: Long,
      maybeGrowPool: Long => Unit = (additionalSpaceNeeded: Long) => Unit,
      computeMaxPoolSize: () => Long = () => poolSize): Long = lock.synchronized {
    assert(numBytes > 0, s"invalid number of bytes requested: $numBytes")

    if (!memoryForTask.contains(taskAttemptId)) {
      memoryForTask(taskAttemptId) = 0L
      lock.notifyAll()
    }

    while (true) {
      val numActiveTasks = memoryForTask.keys.size
      val curMem = memoryForTask(taskAttemptId)

      maybeGrowPool(numBytes - memoryFree)

      val maxPoolSize = computeMaxPoolSize()
      val maxMemoryPerTask = maxPoolSize / numActiveTasks
      val minMemoryPerTask = poolSize / (2 * numActiveTasks)

      val maxToGrant = math.min(numBytes, math.max(0, maxMemoryPerTask - curMem))
      val toGrant = math.min(maxToGrant, memoryFree)

      if (toGrant < numBytes && curMem + toGrant < minMemoryPerTask) {
        logInfo(s"TID $taskAttemptId waiting for at least 1/2N of $poolName pool to be free")
        lock.wait()
      } else {
        memoryForTask(taskAttemptId) += toGrant
        return toGrant
      }
    }
    0L
  }

可见,ExecutionMemoryPool申请内存时是循环申请的,每次都调用参数中的maybeGrowPool()函数(实际上就是上面讲的maybeGrowExecutionPool()方法)来检查是否需要从StorageMemoryPool回收空间。如果分配到的内存比实际申请的少,或者该Task分配完毕之后的内存仍然小于每个Task应获得内存的最小值(即池子的大小除以当前活动Task数的两倍),就调用MemoryManager对象的wait()方法阻塞,直到有其他Task释放内存为止,再进入下一波循环,直到申请到足够的内存。

关于ExecutionMemoryPool,之后还会详细地解释,这里只要有个印象就行。

总结

本文详细阅读了UnifiedMemoryManager的相关源码,对Spark的统一内存管理机制有了深入的了解。当然,统一内存管理虽然先进,但也不代表万事无忧。比如当程序中cache了大量RDD并且不及时释放时,很多存储内存中的块都无法被淘汰,会造成Shuffle阶段频繁Full GC,作业执行变慢。关于Spark作业故障定位和内存调优的事情,不属于这个系列的范畴,笔者会专门挑个时间写一篇全面的总结(就像之前写的两篇Hive调优总结一样),最近实在是太忙了。

看官也可能会问,讲内存管理讲了这么长时间,结果都是在做bookkeeping的工作,内存的实际分配和释放逻辑到底在哪里呢?这个由内存存储类MemoryStore及其附属类来实现,下一篇文章就会讲到了。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-08-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据真好玩 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 统一内存管理器UnifiedMemoryManager
    • 构造方法
      • 代码#25.1 - o.a.s.memory.UnifiedMemoryManager类的构造
        • 计算内存量
          • 统一内存管理布局图示
            • 申请/借用存储内存
              • 申请/借用执行内存
              • 总结
              相关产品与服务
              对象存储
              对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档