专栏首页前端杂货铺(转载)buffer和cache怎么让你们解释的那么难理解?

(转载)buffer和cache怎么让你们解释的那么难理解?

对于一个即将踏上“系统运维”或者更加高大尚的工作“系统调优”,如果这不跟这两哥们搞好关系了,坑的不只有内存,更坑的是你拿着调优的钱却干着随时被调的活。因为作为一个系统运维人员来说监控和优化IO性能这是最有可能你生存下来的技能,为啥呢?因为你不仅给老板省了钱,还提高了机器的工作效率。。虽然钱都进了老板兜里,但你渐渐地植入了他深深地脑海里,总有一天你比钱重要!好了闲话少扯,接下来说说这两个哥们到底是什么?

  之前我自己也对到底buffer和cache是什么,有什么不同,什么时候用buffer,什么时候用cache存在疑惑,不能说不知道,只是别人问起来说起来,我知道,但是讲讲他们的区别,还真是说不出来。无奈查了好多资料,要么太底层要么含糊不清,学术再权威再有见地,让读者理解不了也白搭,这就跟一个牛逼的程序,你再怎么运行在内核空间,但如果你不提供一个用户空间的接口,用的人不能通过一种调用接口认识你,那说明你确实牛,牛到使用的人不知道你是什么。服务的最终是面向用户的,你天天说些机器语言,你真的快乐吗?所以我谈谈我自己对buffer和cache的理解 ,希望能帮到一部分人,当然有不恰当的地方还请各位老师给予指出。你的指出就是对我最好的评价,谢谢!

  从字面上和语义来看,buffer名为缓冲,cache名为缓存。我们知道各种硬件存在制作工艺上的差别,所以当两种硬件需要交互的时候,肯定会存在速度上的差异,而且只有交互双方都完成才可以各自处理别的其他事务。假如现在有两个需要交互的设备A和B,A设备用来交互的接口速率为1000M/s,B设备用来交互的接口速率为500M/s,那他们彼此访问的时候都会出现以下两种情况:(以A来说)

  一.A从B取一个1000M的文件结果需要2s,本来需要1s就可以完成的工作,却还需要额外等待1s,B设备把剩余的500M找出来,这等待B取出剩下500M的空闲时间内(1s)其他的事务还干不了

  二.A给B一个1000M的文件结果也需要2s,本来需要也就1s就可以完成的工作,却由于B,1s内只能拿500M,剩下的500M还得等下一个1sB来取,这等待下1s的时间还做不了其他事务。

  那有什么方法既可以让A在‘取’或‘给’B的时候既能完成目标任务又不浪费那1s空闲等待时间去处理其他事务呢?我们知道产生这种结果主要是因为B跟不上A的节奏,但即使这样A也得必须等B处理完本次事务才能干其他活(单核cpu来说),除非你有三头六臂。那有小伙伴可能会问了,能不能在A和B之间加一层区域比如说ab,让ab既能跟上A的频率也会照顾B的感受,没错我们确实可以这样设计来磨合接口速率上的差异,你可以这样想象,在区域ab提供了两个交互接口一个是a接口另一个是b接口,a接口的速率接近A,b接口的速率最少等于B,然后我们把ab的a和A相连,ab的b和B相连,ab就像一座桥把A和B链接起来,并告知A和B通过他都能转发给对方,文件可以暂时存储,最终拓扑大概如下:

  现在我们再来看上述两种情况:

    对于第一种情况A要B:当A从B取一个1000M的文件,他把需求告诉了ab,接下来ab通过b和B进行文件传送,由于B本身的速率,传送第一次ab并没有什么卵用,对A来说不仅浪费了时间还浪费了感情,ab这家伙很快感受到了A的不满,所以在第二次传送的时候,ab背着B偷偷缓存了一个一模一样的文件,而且只要从B取东西,ab都会缓存一个拷贝下来放在自己的大本营,如果下次A或者其他C来取B的东西,ab直接就给A或C一个货真价实的赝品,然后把它通过a接口给了A或C,由于a的速率相对接近A的接口速率,所以A觉得不错为他省了时间,最终和ab的a成了好基友,说白了此时的ab提供的就是一种缓存能力,即cache,绝对的走私!因为C取的是A执行的结果。所以在这种工作模式下,怎么取得的东西是最新的也是我们需要考虑的,一般就是清cache。例如cpu读取内存数据,硬盘一般都提供一个内存作为缓存来增加系统的读取性能

    对于第二种情况A给B:当A发给B一个1000M的文件,因为A知道通过ab的a接口就可以转交给B,而且通过a接口要比通过B接口传送文件需要等待的时间更短,所以1000M通过a接口给了ab ,站在A视图上他认为已经把1000M的文件给了B,但对于ab并不立即交给B,而是先缓存下来,除非B执行sync命令,即使B马上要,但由于b的接口速率最少大于B接口速率,所以也不会存在漏洞时间,但最终的结果是A节约了时间就可以干其他的事务,说白了就是推卸责任,哈哈而ab此时提供的就是一种缓冲的能力,即buffer,它存在的目的适用于当速度快的往速度慢的输出东西。例如内存的数据要写到磁盘,cpu寄存器里的数据写到内存。

  看了上面这个例子,那我们现在看一下在计算机领域,在处理磁盘IO读写的时候,cpu,memory,disk基于这种模型给出的一个实例。我们先来一幅图:(我从别家当来的,我觉得,看N篇文档 不如瞄此一图)

page cache:文件系统层级的缓存,从磁盘里读取的内容是存储到这里,这样程序读取磁盘内容就会非常快,比如使用grep和find等命令查找内容和文件时,第一次会慢很多,再次执行就快好多倍,几乎是瞬间。但如上所说,如果对文件的更新不关心,就没必要清cache,否则如果要实施同步,必须要把内存空间中的cache clean下

buffer cache:磁盘等块设备的缓冲,内存的这一部分是要写入到磁盘里的。这种情况需要注意,位于内存buffer中的数据不是即时写入磁盘,而是系统空闲或者buffer达到一定大小统一写到磁盘中,所以断电易失,为了防止数据丢失所以我们最好正常关机或者多执行几次sync命令,让位于buffer上的数据立刻写到磁盘里。

  接下来说一下Linux上怎么查看buffer/cache,怎么flush...cache ?

[root@localhost ~]# free -m

  total used free shared buffers cached Mem:      727 359 367 0 36 171 -/+ buffers/cache: 152 575 Swap: 2047 0 2047

第一部分Mem行:

total:内存总数

used:已经使用的内存数

free:空闲的内存数

shared:可用的共享内存

buffers:内存缓冲数

cached:内存缓存数

第二部分:(-/+ buffers/cache)

used:除去被用作buffers和cache内存后已用的内存

free:用作buffers和cache的内存加上Mem部分空闲的内存数

第三部分:(Swap)

用一部分磁盘当做内存用的“内存”

现在我们来做一下数据统计

total=Mem_used+Mem_free

Mem_used=Mem_buffers+Mem_cached+(-/+ buffers/cache)_used

Mem_free=(-/+ buffers/cache)_free-Mem_buffers-Mem_cached

通过以上等式,我们可以知道:

  1.buffers和cache也是RAM划分出来的一部分地址空间

  2.buffers和cache的地址空间也可作为空闲内存的组成部分,这意味着我们可以通过向内核传参释放一部分内存给其他进程

  3.由于buffers/cache 是一种动态的内存地址空间,所以已用空间和空余空间有绝对使用,绝对空余空间,算上buffers/cache的相对已用空间和相对空余空间四个概念。

如何释放缓存吗?我们知道Linux的一个重要思想是一切皆文件,比如各种输入输出设备:键盘,鼠标,网卡,显示器,打印机,U盘,console口,在linux的国度里都可为其创建一个文件作为访问设备的入口,而内核的各种参数也被映射成了文件,不过内核参数这种文件比较特殊,在linux上有两个伪文件系统:/proc,/sys。

  /proc:内核状态和统计信息的输出接口:同时还提供一个配置接口,/proc/sys/ 一些文件可接受用户指定一个新的value来实现对内核某功能或特性的配置:切记不能用文本编辑器去打开,我们可以通过以下三种方式可以去修改:

  1).sysctl [options] [var=[value]]

      var格式 x.x.x... 命令默认的根目录是 /proc/sys

      sysctl -a :查看所有根目录下的内核参数(可以送给grep来检索需要的内核参数)

      sysctl var: 查看指定内核参数的值(如果你很熟悉这个目录你可以直接指所要改的内核选项)

      sysctl -w var=value:设定内核参数var等于value的值

  2).cat /proc/sys/Path/var_file

    echo "value" > /proc/sys/Path/var_file (通过重定向)

注意!以上两种方式的设定仅即时生效,内核重新加载就会失效,如果想让永久生效需要修改其配置文件

  3) 配置文件:/etc/sysctl.conf,/etc/sysctl.d/.conf (是代表所有)这个可以vim,比如我们通过vim 打开并让其有数据包转发功能,我们可以修改以下这个参数

     # Controls IP packet forwardin   net.ipv4.ip_forward = 1    修改完我们可以通过sysctl -p [/etc/sysctl.conf] 让其内核重读配置文件使其修改的value立即生效。

知道了怎么修改内核参数,接下来我们清理下buffers/cache [root@localhost ~]# echo 1 > /proc/sys/vm/drop_caches [root@localhost ~]# free -m total used free shared buffers cached Mem: 727 177 549 0 0 27 -/+ buffers/cache: 150 577 Swap: 2047 0 2047

我们看到命令执行后buffers为0,cached也只有27M。

总结:

1.buffer和cache都是为了解决互访的两种设备存在速率差异,使磁盘的IO的读写性能或cpu更加高效,减少进程间通信等待的时间

2.buffer:缓冲区-用于存储速度不同步的设备或优先级不同的设备之间传输数据,通过buffer可以减少进程间通信需要等待的时间,当存储速度快的设备与存储速度慢的设备进行通信时,存储快的设备先把数据缓存到buffer上,等到系统统一把buffer上的数据写到速度慢的设备上。常见的有把内存的数据往磁盘进行写操作,这时你可以查看一下buffers

3.cache:缓存区-用于对读取速度比较严格,却因为设备间因为存储设备存在速度差异,而不能立刻获取数据,这时cache就会为了加速缓存一部分数据。常见的是CPU和内存之间的数据通信,因为CPU的速度远远高于主内存的速度,CPU从内存中读取数据需等待很长的时间,而Cache保存着CPU刚用过的数据或循环使用的部分数据,这时Cache中读取数据会更快,减少了CPU等待的时间,提高了系统的性能。

问题:

 1.buffers和cache是必须的吗?

  2. 怎么清除buffers和cache?

  3. 当buffers值一段时间增长很快说明什么?cache一段时间增长很快说明什么?

原地址

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • Linux内存buffer和cache的区别

    在Linux的内存分配机制中,优先使用物理内存,当物理内存还有空闲时(还够用),不会释放其占用内存,就算占用内存的程序已经被关闭了,该程序所占用的内存用来做缓存...

    Debian社区
  • linux buffer cache的回收

    在Linux系统中,我们经常用free命令来查看系统内存的使用状态。在一个RHEL6的系统上,free命令的显示内容大概是这样一个状态:

    domain0
  • asp.net core 系列之Reponse caching之cache in-memory (2)

    这篇文章(主要翻译于官网,水平有限,见谅)讲解asp.net core 中的 Cache in-memory (内存缓存).

    Vincent-yuan
  • MongoDB WiredTiger存储引擎内存调优

    MongoDB同时使用WT cache和文件系统cache。cache_size指定WT存储引擎内部cache的内存用量上限。cache_size相对于物理内存...

    球球
  • 【新书连载】一波三折:释放内存导致数据库崩溃

    编辑说明:《Oracle性能优化与诊断案例精选》出版以来,收到很多读者的来信和评论,我们会通过连载的形式将书中内容公布出来,希望书中内容能够帮助到更多的读者朋友...

    数据和云
  • 【CSS】:颜色、背景

    CSS 数据类型 <color> 表示一种标准RGB色彩空间(sRGB color space)的颜色。一种颜色可以用以下任意的方式来描述:

    WEBJ2EE
  • RSA 2018 |互联网需要更多正义,浅谈企业的社会责任

    RSA 2018大会上,一个广受关注,也是为数不多的女性演讲者名叫莱温斯基。没错,就是你知道的那个莱温斯基。

    FB客服

扫码关注云+社区

领取腾讯云代金券