前言cache是位于cpu与主存储器即dram(dynamic ram,动态存储器)之间的少量超高速静态存储器sram(static ram),它是为了解决cpu与主存之间速度匹配问题而设置的,不能由用户直接寻址访问。
随着科技的发展和生产工艺水平的提高,高性能处理器中cache的容量将越来越大,而且级数将越来越多,从而大大提高系统的性能。
1 cache和write buffer一般性介绍1.1 cache工作原理具有cache的计算机,当cpu需要进行存储器存取时,首先检查所需数据是否在cache中。如果存在,则可以直接存取其中的数据而不必插入任何等待状态,这是最佳情况,称为高速命中;
当cpu所需信息不在cache中时,则需切换存取主储器,由于速度较慢,需要插入等待,这种情况称高速未命中;
在cpu存取主存储器的时候,按照最优化原则将存储信息同时写入到cache中以保证下次可能的高速缓存命中。
因此 ,同一数据可能同时存储在主存储器和cache中 。同样,按照优化算法, 可以淘汰cache中一些不常使用的数据 。
传统的socket架构通常采用两级缓冲结构,即在cpu中集成了一级缓存(l1cache),在主板上装二级缓存(l2 cache),而slotⅰ架构下的l2 cache则与cpu做在同一块电路板上,以内核速度或者内核速度的一半运行,速度比socket下的以系统外频运行的l2 cache更快,能够更大限度发挥高主频的优势,当然对cache工艺要求也更高。
•cpu首先在l1 cache中查找数据,如找不到,则在l2cache中寻找。•若数据在l2 cache中,控制器在传输数据的同时,修改l1cache;•若数据既不在l1 cache中,又不在l2 cache中,cache控制器则从主存中获取数据,将数据提供给cpu的同时修改两级cache。•k6-ⅲ则比较特殊,64kb l1 cache,256kb full core speed l2 cache,原先主板上的缓存实际上就成了l3 cache。
根据有关测试表明:
当512k2mb的三级缓存发挥作用时,系统性能还可以有2%10%的提高;
tri-level成为pc系统出现以来提出的解决高速cpu与低速内存之间瓶颈最为细致复杂的方案;而且,今后cache的发展方向也是大容。
在主存-cache存储体系中, 所有的指令和数据都存在主存中 ,cache只是存放主存中的一部分程序块和数据块的副本,只是一种以块为单位的存储方式。
cache和主存被分为块,每块由多个字节组成。
由上述的程序局部性原理可知,cache中的程序块和数据块会使cpu要访问的内容在大多数情况下已经在cache中,cpu的读写操作主要在cpu和cache之间进行。
cpu访问存储器时,送出访问单元的地址,由地址总线传送到cache控制器中的主存地址寄存器mar, 主存-cache地址转换机构从ma获取地址并判断该单元内容是否已在cache中存有副本 ,如果副本已存在于cache中,即命中。当命中时,立即把访问地址变换成它在cache中的地址,然后访问cache。
存储体由若跟个存储单元组成,存储单元由多个存储元件组成存储体----存储单元(存储一串二进制串)----存储元件(存储一个0/1)存储单元:存放一串二进制代码。存储字:存储单元中的二进制代码存储字长:存储单元中二进制代码位数。存储单元按照地址进行寻址mar:存储器地址寄存器,反应存储单元个数。保存了存储体的地址(存储单元的编号),反应了存储单元的个数。所以mar的位数和存储单元的个数有关。mdr:存储器数据寄存器,反应存储字长(存储单元长度)。保存了要送入cpu中的数据或要保存到存储体中的数据或者刚刚从存储体中取出来来的数据。这个寄存器的长度和存储单元的长度相同。如果cpu要访问的内容不在cache中,即不命中,则cpu转去直接访问主存,并将包含此存储单元的整个数据块(包括该块数据的地址信息)传到cache中,使得以后的若干次对内存的访问可转化为对cache的访问。
若cache存储器已满,则需在替换控制部件的控制下,根据某种替换算法/策略,用此块信息替换掉cache中原来的某块信息。
之前记得当时面试的时候让我用golang手写缓存管理算法,哈哈哈。
所以,要想提高系统效率,必须提高cache命中率 ,而cache命中率的提高则 取决于cache的映像方式和cache刷新算法等一系列因素 ,同时cache中内容应与主存中的部分保持一致,也就是说,如果主存中的内容在调入cache之后发生了变化,那么它在cache中的映像也应该随之发生相应改变,反之,当cpu修改了cache中的内容后,主存中的相应内容也应作修改。
1.2 地址映像方式所谓地址映像方式是指如何确定cache中的内容是主存中的哪一部分的副本,即必须应用某种函数把主存地址映像到cache中定位。
信息按某种方式装入cache中后,执行程序时,应将主存地址变换为cache地址,这个变换过程叫作地址变换。
地址映像方式通常采用直接映像、全相联映像、组相联映像三种:
1-直接映像每个主存地址映像到cache中的一个指定地址的方式,称为直接映像方式。在直接映像方式下,主存中存储单元的数据只可调入cache中的一个位置,如果主存中另一个存储单元的数据也要调入该位置则将发生冲突。
地址映像的方法一般是将主存空间按cache的尺寸分区,每区内相同的块号映像到cache中相同的块位置。一般地,cache被分为2n块,主存被分为大小为2mb的块,主存与cache中块的对应关系可用如下映像函数表示:j = i mod 2n。式中,j是cache中的块号;i是主存中的块号。
直接映像是一种最简单的地址映像方式,它的地址变换速度快,而且不涉及其他两种映像方式中的替换策略问题。但是这种方式的块冲突概率较高,当程序往返访问两个相互冲突的块中的数据时,cache的命中率将急剧下降,因为这时即使cache中有其他空闲块,也因为固定的地址映像关系而无法应用。
2-全相联映像主存中的每一个字块可映像到cache任何一个字块位置上,这种方式称为全相联映像。这种方式只有当cache中的块全部装满后才会出现块冲突,所以块冲突的概率低,可达到很高的cache命中率,但它实现很复杂。
当访问一个块中的数据时,块地址要与cache块表中的所有地址标记进行比较已确定是否命中。在数据块调入时存在着一个比较复杂的替换问题,即决定将数据块调入cache中什么位置,将cache中哪一块数据调出主存。为了达到较高的速度,全部比较和替换都要用硬件实现。
3-组相联映像组相联映像方式是直接映像和全相联映像的一种折中方案。这种方法将存储空间分为若干组,各组之间是直接映像,而组内各块之间则是全相联映像。
它是上述两种映像方式的一般形式,如果组的大小为1,即cache空间分为2n组,就变为直接映像;如果组的大小为cache整个的尺寸,就变为全相联映像。组相联方式在判断块命中及替换算法上都要比全相联方式简单,块冲突的概率比直接映像低,其命中率也介于直接映像和全相联映像方式之间。
1.3 cache写入方式原理简介提高高速缓存命中率的最好方法是尽量使cache存放cpu最近一直在使用的指令与数据,当cache装满后,可将相对长期不用的数据删除,提高cache的使用效率。
为保持cache中数据与主存储器中数据的一致性,避免cpu在读写过程中将cache中的新数据遗失,造成错误地读数据,确保cache中更新过程的数据不会因覆盖而消失,必须将cache中的数据更新及时准确地反映到主存储器中,这是一个cache写入过程,cache写入的方式通常采用直写式、缓冲直写式与回写式三种,下面比较介绍这三种cache写入方式。
1- 直写式(write through)系统cpu对cache写入时,将数据同时写入到主存储器中,这样可保证cache中的内容与主存储器的内容完全一致。这种方式比较直观,而且简单、可靠,但由于每次对cache更新时都要对主存储器进行写操作,而这必须通过系统总线来完成,因此总线工作频繁,系统运行速度就会受到影响。
2-缓冲直写式(post wirte)系统为解决直写式系统对总线速度的影响问题,在主存储器的数据写入时增加缓冲器区。当要写入主存储器的数据被缓冲器锁存后,cpu便可执行下一个周期的操作,不必等待数据写入主存储器。这相对于给主存储器增加了一个单向单次高速缓存。
比如,在写入周期之后可以紧接着一个数据已存在于cache中的读取周期,这样就可避免直写式系统造成的操作延时,但这个缓冲器只能存储一次写入的数据,当连续两次写操作发生时,cpu仍需等待。
3-回写式(write back)系统前面两种写入方式系统,都是在写cache的同时对主存储器进行写操作。实际上这不仅是对总线带宽的占用,浪费了宝贵的执行时间,而且在有些情况下是不必要的,可以通过增加额外的标准来判断是否有必要更新数据。回写式系统就是通过在cache中的每一数据块的标志字段中加入一更新位,解决主存储器不必要的写操作。
比如,若cache中的数据曾被cpu更新过但还未更新主存储器,则该更新位被置1。每次cpu将一块新内容写入cache时,首先检查cache中该数据块的更新位,若更新位为0,则将数据直接写入cache;反之,若更新位为1,则先将cache中的该项内容写入到主存储器中相应的位置,再将新数据写回cache中。
与直写式系统相比,回写式系统可省下一些不必要的立即回写操作,而在许多情况下这是很频繁出现的。即使一个cache被更新,若未被新的数据所取代,则没有必要立刻进行主存储器的写操作。也就是说,实际写入主存储器的次数,可能少于cpu实际所执行写入周期的次数,但回写式系统的结构较复杂,cache也必须用额外的容量来存储标志。由于回写系统的高效率,现代的cache大多采取这种方式进行操作。
1.4 关于write-through和write-back1-对于磁盘操作来说write-through的意思是写操作根本不使用缓存,数据总是直接写入磁盘,关闭写缓存,可释放缓存用于读操作(缓存被读写操作共用)。
write-back的意思是数据不直接被写入磁盘,而是先写入缓存,再由控制器将缓存内未写入磁盘的数据写入磁盘,从应用程序的角度看,比等待完成磁盘写入操作要快得多,因此可以提高写性能。
但是write-back(write cache)方式通常在磁盘负荷较轻时速度更快。负荷重时,每当数据被写入缓存后,就要马上再写入磁盘以释放缓存来保存将要写入的新数据,这时如果数据直接写入磁盘,控制器会以更快的速度运行。因此,负荷重时,将数据先写入缓存反而会降低吞吐量。
2-对于cpu内部的cache缓冲模式来说write-through和write-back,前者是按顺序来一个写一个,而后者则是先将资料按一定数量保存在缓冲区中,然后将相同位置的数据一次性写出。举例说明:有一部电梯,如果按先入先出的原则,即write through模式,第一个人去3楼,第二个去2楼,第三个也去3楼,那么这电梯就得先到3楼,然后到2楼,再去3楼。
但如果在write back模式下,电梯先到2楼把第二个人送出去,然后再到3楼把第一个人和第三个人送出去,效率显然高多了。早期的cache只有write through模式,但现在的cache都使用write back模式了。
3-其他的解释write-through:在write的时候,同步更新cache和memory中的数据。write-back:在write的时候更新cache,但是memory中的数据不一定同步更新,只有当cache到一定程度才会把cache中的数据刷到memory中,或者通过cache指令刷新,不会同步自动刷新。cache line的意思是假设你那条指令只要从memory中读4个字节,但是一般来说你接下来的指令很有可能要读这4个字节后面的数据,所以一般硬件会多读一些数据进入cache,比如64字节,那么这64字节就是一个cache line。而如果你这个cache line里的数据长时间不被cpu访问,那么这个cache line可能会被选中换出,这时候就必须把cache里被改过的信息写回memory了。1.5 cache替换策略cache和存储器一样具有两种基本操作,即读操作和写操作。当cpu发出读操作命令时,根据它产生的主存地址分为两种情形:一种是需要的数据已在cache中,那么只需要直接访问cache,从对应单元中读取信息到数据总线即可;
另一种是需要的数据尚未装入cache,cpu需要从主存中读取信息的同时,cache替换部件把该地址所在的那块存储内容从主存复制到cache中。若cache中相应位置已被字块占满,就必须去掉旧的字块。常见的替换策略有以下两种:
1-先进先出策略(fifo)fifo(first in first out)策略总是把最先调入的cache字块替换出去,它不需要随时记录各个字块的使用情况,较容易实现。缺点是经常使用的块,如一个包含循环程序的块也可能由于它是最早的块而被替换掉。
2-最近最少使用策略(lru)lru(least recently used)策略是把当前近期cache中使用次数最少的信息块替换出去,这种替换算法需要随时记录cache中字块的使用情况。lru的平均命中率比fifo高,在组相联映像方式中,当分组容量加大时,lru的命中率也会提高。
1.6 使用cache的必要性所谓cache即高速缓冲存储器,它位于cpu与主存即dram之间,是通常由sram构成的规模较小但存取速度很快的存储器。
目前计算机主要使用的内存为dram,它具有价格低、容量大等特点,但由于使用电容存储信息,存取速度难以提高,而cpu每执行一条指令都要访问一次或多次主存,dram的读写速度远低于cpu速度,因此为了实现速度上的匹配,只能在cpu指令周期中插入wait状态,高速cpu处于等待状态将大大降低系统的执行效率。
由于sram采用了与cpu相同的制作工艺,因此与dram相比,它的存取速度快,但体积大、功耗大、价格高,不可能也不必要将所有的内存都采用sram。
因此为了解决速度与成本的矛盾就产生了一种分级处理的方法,即在主存和cpu之间加装一个容量相对较小的sram作为高速缓冲存储器。
当采用cache后,在cache中保存着主存中部分内容的副本(称为存储器映像),cpu在读写数据时,首先访问cache(由于cache的速度与cpu相当,所以cpu可以在零等待状态下完成指令的执行),只有当cache中无cpu所需的数据时(这称之“未命中”,否则称为“命中”),cpu才去访问主存。
而目前大容量cache能使cpu访问cache命中率高达90%~98%,从而大大提高了cpu访问数据的速度,提高了系统的性能。
1.7 使用cache的可行性对大量的典型程序的运行情况分析结果表明,在一个较短的时间内,由程序产生的地址往往集中在存储器逻辑地址空间的很小范围内。
在多数情况下,指令是顺序执行的,因此指令地址的分布就是连续的,再加上循环程序段和子程序段要重复执行多次,因此对这些地址的访问就自然具有时间上集中分布的趋向。
数据的这种集中倾向不如指令明显,但对数组的访问以及工作单元的选择都可以使存储器地址相对集中。这种对局部范围的存储器地址的频繁访问,而对此范围以外的地址则访问甚少的现象称为程序访问的局部性。
根据程序的局部性原理,在主存和cpu之间设置cache,把正在执行的指令地址附近的一部分指令或数据从主存装入cache中,供cpu在一段时间内使用,是完全可行的。
UART和USART有区别
2019年全球半导体收入总计4183亿美元 同比下降11.9%
回归4S:双面玻璃+金属中框,努力吧,或许是你的iPhone8
iOS11beta3、iOS11Beta2公测版相继更新,iOS11描述文件奉上!iOS10.2越狱和iOS10.3越狱还没来iOS11降级教程
TI推出具有超低噪音与超低失真的JFET输入运算放大器产品系列
Cache和Write Buffer一般性介绍
一文让你了解RFID标签芯片厂家有哪些?
2022年动力电池回收行业研究报告
新展期|美格智能与您相约深圳国际物联网展 共话5G+AIoT新格局
如何找到AI技术与隐私安全的平衡点?
三星Galaxy S20系列全面曝光 Galaxy S20+将搭载高通骁龙865
使用DS1802按钮数字电位器创建音频放大器-Using a
索尼正在豪赌3D成像和增强现实技术 并认为人类将进入3D交互时代
飞兆半导体TinyLogic 系列担当节能新角色
分析石头科技最新推出的T7S Plus
AFPM100消防设备电源状态监控器是电源监控系统的核心
特殊场景室内机解决方案及几种应用场景
爱立信发布2023全年及第四季度财报
5G网络带来的商业价值
北京电信将打造5G+VR/AR超现实体验