首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >操作系统导论-CPU缓存

操作系统导论-CPU缓存

作者头像
JavaEdge
修改2025-12-09 15:50:03
修改2025-12-09 15:50:03
6780
举报
文章被收录于专栏:JavaEdgeJavaEdge

本文已收录在Github关注我,紧跟本系列专栏文章,咱们下篇再续!

  • 🚀 魔都架构师 | 全网30W技术追随者
  • 🔧 大厂分布式系统/数据中台实战专家
  • 🏆 主导交易系统百万级流量调优 & 车联网平台架构
  • 🧠 AIGC应用开发先行者 | 区块链落地实践者
  • 🌍 以技术驱动创新,我们的征途是改变世界!
  • 👉 实战干货:编程严选网

为提高程序运行性能,现代CPU在很多方面对程序进行了优化。如CPU高速缓存。尽可能避免处理器访问主内存的时间开销,处理器大多会利用缓存以提高性能。

内存可看做CPU、磁盘之间的缓存。CPU与内存处理速度也不一致,出现了L1&L2 Cache

  • 网络处理
  • 数据库引擎的各种Buffer
  • GUI的Double Buffer(双缓冲)

1 多级缓存

L1 Cache(一级缓存)

CPU第一层高速缓存,分为数据缓存和指令缓存。一般服务器CPU的L1缓存的容量通常在32- - 4096KB。

L2

由于L1级高速缓存容量的限制,为了再次提高CPU的运算速度,在CPU外部放置一高速存

储器,即二级缓存。

L3

现都是内置。其实际作用是,L3缓存的应用可进一步降低内存延迟,同时提升大数据量计算时处理器的性能。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。一般多核共享一个L3缓存。

CPU在读取数据时,寻找顺序:L1、L2、L3,然后内存,再到外存储器。

2 缓存同步协议

多CPU读取同样的数据进行缓存,进行不同运算之后,最终写入主内存以哪个CPU为准?这种高速缓存回写的场景下,有个缓存一致性协议,多数CPU厂商对它进行了实现。

MESI协议,规定每条缓存有个状态位,同时定义如下四个状态:

  • 修改态(Modified):此cache行已被修改过(脏行),内容已不同于主存,为此cache专有;
  • 专有态(Exclusive):此cache行内容同于主存,但不出现于其它cache中
  • 共享态(Shared):此cache行内容同于主存,但也出现于其它cache中;
  • 无效态(Invalid):此cache行内容无效(空行)

多处理器时,单个CPU对缓存中数据进行了改动,需要通知给其他CPU。即CPU处理要控制自己的读写操作,还要监听其他CPU发出的通知,从而保证最终一致。

3 问题

缓存中的数据与主内存的数据并不是实时同步的,各CPU (或CPU核心)间缓存的数据也不是

实时同步。在同一个时间点,各CPU所看到同一内存地址的数据的值可能不一致。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021/02/03 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 多级缓存
    • L1 Cache(一级缓存)
    • L2
    • L3
  • 2 缓存同步协议
  • 3 问题
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档