本文已收录在Github,关注我,紧跟本系列专栏文章,咱们下篇再续!
为提高程序运行性能,现代CPU在很多方面对程序进行了优化。如CPU高速缓存。尽可能避免处理器访问主内存的时间开销,处理器大多会利用缓存以提高性能。
内存可看做CPU、磁盘之间的缓存。CPU与内存处理速度也不一致,出现了L1&L2 Cache
CPU第一层高速缓存,分为数据缓存和指令缓存。一般服务器CPU的L1缓存的容量通常在32- - 4096KB。
由于L1级高速缓存容量的限制,为了再次提高CPU的运算速度,在CPU外部放置一高速存
储器,即二级缓存。
现都是内置。其实际作用是,L3缓存的应用可进一步降低内存延迟,同时提升大数据量计算时处理器的性能。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。一般多核共享一个L3缓存。
CPU在读取数据时,寻找顺序:L1、L2、L3,然后内存,再到外存储器。
多CPU读取同样的数据进行缓存,进行不同运算之后,最终写入主内存以哪个CPU为准?这种高速缓存回写的场景下,有个缓存一致性协议,多数CPU厂商对它进行了实现。
MESI协议,规定每条缓存有个状态位,同时定义如下四个状态:
多处理器时,单个CPU对缓存中数据进行了改动,需要通知给其他CPU。即CPU处理要控制自己的读写操作,还要监听其他CPU发出的通知,从而保证最终一致。
缓存中的数据与主内存的数据并不是实时同步的,各CPU (或CPU核心)间缓存的数据也不是
实时同步。在同一个时间点,各CPU所看到同一内存地址的数据的值可能不一致。