前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >关于Go内存架构,一个有趣的问题

关于Go内存架构,一个有趣的问题

作者头像
用户1093396
发布2022-06-08 13:54:54
2540
发布2022-06-08 13:54:54
举报
文章被收录于专栏:TIGERB的技术博客

导读


本文基于Go源码版本1.16、64位Linux平台、1Page=8KB、本文的内存特指虚拟内存

今天我们开始进入《Go语言轻松系列》第二章「内存与垃圾回收」第二部分「Go语言内存管理」。

关于「内存与垃圾回收」章节,会从如下三大部分展开:

第一部分「读前知识储备」已经完结,为了更好理解本文大家可以点击历史链接进行查看或复习。

目录


关于讲解「Go语言内存管理」部分我的思路如下:

  1. 介绍整体架构
  2. 介绍架构设计中一个很有意思的地方
  3. 通过介绍Go内存管理中的关键结构mspan,带出pagemspanobjectsizeclassspanclassheaparenachunk的概念
  4. 接着介绍堆内存、栈内存的分配
  5. 回顾和总结

通过这个思路拆解的目录:

  • Go内存管理架构(点击查看)
    • mcache
    • mcentral
    • mheap
  • 为什么线程缓存mcache是被逻辑处理器p持有,而不是系统线程m?(本篇内容)
  • Go内存管理单元mspan
    • page的概念
    • mspan的概念
    • object的概念
    • sizeclass的概念
    • spanclass的概念
    • heaparena的概念
    • chunk的概念
  • Go堆内存的分配
    • 微对象分配
    • 小对象分配
    • 大对象分配
  • Go栈内存的分配
    • 栈内存分配时机
    • 小于32KB的栈分配
    • 大于等于32KB的栈分配

在学习Go语言内存管理部分过程中,发现了一个很有意思的问题,今天就借助这篇文章:

  • 把这个问题也抛给大家,建议大家看见这个问题后,可以先自己思考一番🤔再读下文
  • 进一步强化大家对Go内存架构的理解

开始本篇文章之前,我们快速回顾下「Go内存架构」相关的核心知识点,温故知新

回顾「TCMalloc内存管理架构」


先来简单回顾下「TCMalloc内存管理架构」。详细讲解可查看之前的文章《18张图解密新时代内存分配器TCMalloc》

痛点

多线程时代 ---> 线程共享内存 ---> 线程申请内存会产生竞争 ---> 竞争加锁 ---> 加锁影响性能。

解法

每个线程上增加内存缓存ThreadCache。

简易架构图如下:

回顾「Go内存管理架构」


接着简单回顾下「Go内存管理架构」。详细讲解可查看之前的文章《浅析Go内存管理架构》

痛点

同上。

解法

同上,基于「TCMalloc」实现。

简易架构图如下:

有趣的问题


关于这个有趣的问题,通过上述的内容,细心的朋友可能已经发现了,具体问题如下:

为什么Go的内存管理器的线程缓存是mcache被逻辑处理器p持有,而并不是被真正的系统线程m持有?

个人思考时间


是不是很有意思,关于这个问题。对面的你不妨先停下来思考几分钟:

为什么?

解密


按照原TCMalloc的设计思想,线程缓存mcache确实应该被绑定到系统线程M上。

那么我们就假设:按照原TCMalloc的思想,把mcache绑定系统线程M。接着我们只需要看看这个假设有什么问题即可。

要论证这个假设需要先来简单看看「Go的调度模型GMP」。

Go的调度模型GMP

首先直接上入门级「Go的调度模型GMP」架构图:

关于「Go的调度模型GMP」的原理,大家应该看了无数文章,我这里就不细说了,如果还有不熟悉可以自行搜索哈。

这里简单提下关于GMP的入门级知识哈,其实GMP对应的只是Go语言自身的逻辑结构而已,含义如下:

  • M:代表结构体m,全称Machine,这个结构体的核心是会和真正的系统线程thread绑定。
  • G:代表结构体g,全称Goroutine,这个结构体就是大家熟知的协程,简单理解其实就是这个结构体绑定了一个有着被并发执行需求的函数。
  • P:代表结构体p,全称Processor,这个结构体表示逻辑处理器,通过这个结构体和计算机的逻辑处理器建立对应关系,P的数量通常和计算机的逻辑处理器数量一致通过runtime.GOMAXPROCS(runtime.NumCPU())设置。

三者的简单职责以及关系:

  • P
    • 和一个M互相绑定
    • 维护了一个可执行G的队列
  • M
    • 和一个P互相绑定
    • 负责执行G的调度,通过调度当前M绑定的PG队列、以及全局G队列,达到G可被并发执行的目的。
    • 负责执行P调度过来的当前G

此阶段结论:以上的调度过程P的数量和M的数量是一一对应的,所以把mcache绑定系统线程M上和P看起来都可以。所以我们上面的假设「按照原TCMalloc的思想,把mcache绑定系统线程M」目前看起来确实也没啥问题。

我们继续往下看,一种特殊的场景M会和P解绑。

I/O操作的系统调用

G执行一个I/O操作的系统调用时,比如readwrite,因为系统调用过程中的阻塞(原因:内核往用户态拷贝数据的过程产生的阻塞,不在本文范畴,后续文章详解)问题,会发生如下操作:

  • 当前G(我们命名为g1)的M(我们命名为m1)和当前的P(我们命名为p1)解绑
  • 上面的p1会绑定一个其他的M(m2)
  • m1执行完成系统调用之后会被放到闲置M链表里

由于m1会被放进闲置链表,这是不是就意味着m1上的mcache当前就不能被复用,所以这样看起来是不是mcache绑定到p1上更合适。

结论: 由于M可能因为执行一个I/O操作的系统调用被阻塞(原因:内核往用户态拷贝数据的过程产生的阻塞),M会和当前P解绑,当前P绑定其他闲置或者新的M,之前的M结束系统调用会被放进闲置M链表。之前的Mmcache就不会得到有效的复用,反而mcache绑定到P上就不存在这个问题,所以mcache绑定到P上更合适。

源码论证

通过Go的源码进一步证明我们的结论。

  • 代码位置:src/runtime/proc.go::3813
  • 函数名称:func exitsyscall0(gp *g)

源码如下:

代码语言:javascript
复制
// Go版本1.6
// 退出系统调用的代码逻辑
// 代码位置
// src/runtime/proc.go::3813
func exitsyscall0(gp *g) {
 _g_ := getg()

 casgstatus(gp, _Gsyscall, _Grunnable) // 把执行系统调用的g从系统调用状态改为可执行
 dropg()
 lock(&sched.lock)
 var _p_ *p
 if schedEnabled(_g_) {
  _p_ = pidleget() // 找空闲的p 
 }
 if _p_ == nil {
  globrunqput(gp) // 找不到空闲的p 则放进全局队列
 } else if atomic.Load(&sched.sysmonwait) != 0 {
  atomic.Store(&sched.sysmonwait, 0)
  notewakeup(&sched.sysmonnote)
 }
 unlock(&sched.lock)
 if _p_ != nil {
  acquirep(_p_)
  execute(gp, false) // 执行当前因系统调用阻塞的g
 }
 if _g_.m.lockedg != 0 {
  stoplockedm()
  execute(gp, false) // 执行当前因系统调用阻塞的g
 }
 stopm() // 停止m,并放到调度器的m闲置链表
 schedule() // 触发调度
}
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-04-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 TIGERB的技术博客 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 导读
  • 目录
    • 回顾「TCMalloc内存管理架构」
      • 痛点
      • 解法
    • 回顾「Go内存管理架构」
      • 痛点
      • 解法
    • 有趣的问题
      • 个人思考时间
        • 解密
          • Go的调度模型GMP
          • I/O操作的系统调用
          • 源码论证
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档