cpu cache是cpu高速缓冲存储器的简称,本文将其简称为缓存或者cache.
本篇首先从计算机的存储层次出发介绍计算机的性能瓶颈,然后以intel处理器为例介绍缓存的发展,随后介绍缓存提升cpu性能的局部性原理,最后分析缓存大小对cpu性能的影响。
一、计算机性能的瓶颈
在冯诺依曼架构下,计算机存储器是分层次的,存储器的层次结构如下图所示,是金字塔形状。从上到下依次是寄存器、l1缓存、l2缓存,l3缓存主存(内存)、硬盘等等。
离cpu越近的存储器,访问速度越来越快,容量越来越小,每字节的成本也越来越昂贵。
如一个主频为3.0ghz的cpu,寄存器的速度最快,可以在1个时钟周期内访问,一个时钟周期(cpu中基本时间单位)大约是0.3纳秒,内存访问大约需要120纳秒,固态硬盘访问大约需要50-150微秒,机械硬盘访问大约需要1-10毫秒。
电子计算机刚出来的时候,其实cpu是没有缓存cache的,那个时候的cpu主频很低,甚至没有内存高,cpu都是直接读写内存的。随着时代的发展,技术的革新,从1980年代开始,差距开始迅速扩大,cpu的速度远远超过内存的速度,在冯诺依曼架构下,cpu访问内存的速度也就成了计算机性能的瓶颈!
图片来源于:how l1 and l2 cpu caches work, and why they're an essential part of modern chips
为了弥补cpu与内存两者之间的性能差异,也就是要加快cpu访问内存的速度,就引入了缓存cpu cache,缓存的速度仅次于寄存器,充当了cpu与内存之间的中间角色。
二、缓存及其发展历史
缓存cpu cache用的是 sram(static random-access memory)存储,也叫静态随机存储器。其只要有电,数据就可以保持存在,而一旦断电,数据就会丢失。
cpu cache 通常分为大小不等的3级缓存,分别是 l1 cache、l2 cache 和 l3 cache。常见的cache典型分布图如下:
这里以intel系列为例,回顾cache发展历史。
在80286之前,那个时候是没有缓存cache的,那个时候的cpu主频很低,甚至没有内存高,cpu都是直接读写内存的。
从80386开始,这个cpu速度和内存速度不匹配问题已经开始展露,并且差距开始迅速扩大,慢速度的内存成为了计算机的瓶颈,无法充分发挥cpu的性能,为解决这个问题,intel主板支持外部cache,来配合80386运行。
80486将l1 cache(大小8kb)放到cpu内部,同时支持外接cache,即l2 cache(大小从128kb到256kb),但是不分指令和数据。虽然l1 cache大小只有8kb,但其实对那时候cpu来说够用了,我们来看一副缓存命中率与l1、l2大小的关系图:
图片来源于:how l1 and l2 cpu caches work, and why they're an essential part of modern chips。
从上图我们可以发现,增大l1 cache对于cpu来说好处不太明显,缓存命中率并没有显著提升,成本还会更昂高,所以性价比不高。而随着l2 cache 大小的增加,缓存总命中率会急剧上升,因此容量更大、速度较慢、更便宜的l2成为了更好的选择。
等到pentium-1/80586,也就是我们熟悉的奔腾系列,由于pentium采用了双路执行的超标量结构,有2条并行整数流水线,需要对数据和指令进行双重的访问,为了使得这些访问互不干涉,于是l1 cache被一分为二,分为指令cache和数据cache(大小都是8k)【将数据和指令分别存取的存取结构叫做哈佛结构,区别于混在一起的冯·诺伊曼结构】,此时的l2 cache还是在主板上,再后来intel推出了[pentium pro]/80686,为了进一步提高性能,l2 cache被正式放到cpu内部。
在cpu外面,dram内存还是那么一套内存,硬盘也是那么一套不区分指令和数据的硬盘。因而可以说x86 cpu是在内部采用哈佛结构、外部仍然是冯·诺伊曼结构。实际上除了少数单片机、dsp等设备,谁也不会最外层的存储设备都区分数据和指令。所以这种内部哈佛,外部冯·诺伊曼结构的做法似乎已经成了业界共识。
后来cpu多核时代来临,intel的pentium d、pentium e系列,cpu内部每个核心都有自己的l1、l2 cache,但他们并不共享,只能依靠总线来传递同步缓存数据。最后core duo酷睿系列的出现,l2 cache变成多核共享模式,采用intel的“smart cache”共享缓存技术,到此为止,就确定了现代缓存的基本模式。
如今cpu cache通常分为大小不等的3级缓存,分别是 l1 cache、l2 cache 和 l3 cache,l3 高速缓存为多个 cpu 核心共用的,而l2则被每个核心单独占据,另外现在有的cpu已经有了l4 cache,未来可能会更多。
三、缓存如何弥补cpu与内存的性能差异?
缓存主要是利用局部性原理来提升计算机的整体性能。因为缓存的性能仅次于寄存器,而cpu与内存两者之间的产生的分歧,主要是二者存取速度数量级的差距,尽可能多地让cpu去存取缓存,同时减少cpu直接访问主存的次数,这样计算机的性能就自然而然地得到巨大的提升。
所谓局部性原理,主要分为空间局部性与时间局部性:
时间局部性:被引用过一次的存储器位置在未来会被多次引用(通常在循环中)。
空间局部性:如果一个存储器的位置被引用,那么将来它附近的位置也会被引用。
缓存会把cpu最近访问主存(内存)中的指令和数据临时储存,因为根据局部性原理,这些指令和数据在较短的时间间隔内很可能会被以后多次使用到,其次是当从主存中取回这些数据时,会同时取回与其位置相邻的主存单元的存放的数据临时储存到缓存中,因为该指令和数据附近的内存区域,在较短的时间间隔内也可能会被多次访问。
当cpu去访问指令和数据时,首先去访问l1 cache,如果命中,则会直接从对应的缓存中取数据,而不必每次去访问主存,如果没命中,会再去l2 cache中找,依次类推,如果l3 cache中不存在,就去内存中找。
四、l1缓存是不是越大越好?
l1增大,会提高l1的命中率,但l1缓存是不是越大越好?
4.1 增大l1对访问延迟的影响
一个实际的例子: 从intel sunny cove (core第10代) 开始l1 cache从32k (指令) +32k(数据) 的组合变成了32k (指令) +48k (数据) 的组合。这样的后果就是l1 cache的访问性能下降,从4个cycle变成5个cycle。增大l1会提高命中率,同时延迟也增加了。那么这一升一降对平均访问时间(amat)有什么影响呢?
下面用一个简单的例子来说明一下l1访问时间对amat的影响。假设我们有三层的memory hierarchy (l1, l2, offchip ram) ,其中l2访问时间为10 cycle,off-chip ram访问时间为200 cycle。假设32kb l1-d的情况下l1,l2的hit rate大致为90%,9%,增加至48kb l1-d的sunny cove l1,l2 hit rate提升为95%,4%,那么对应的
sunny cove平均访问时间约为
0.95*5+0.04*10+0.01*200=7.15 cycle.
sunny cove之前的microarchitecture的平均访问时间约为
0.90*4+0.09*10+0.01*200=6.5 cycle.
简单的模型估算可以看出,即便增大l1 size可以提升l1 hit rate,然而l1访问延时的增加,还是会使得平均内存访问延时增加了~10%。这也是为什么l1 cache size长时间来没有太大改动的原因。
综上,l1大小将直接影响访问时间,而访问l1的时间又会直接影响到平均内存访问时间(average memory access time - amat),对整个cpu的性能产生巨大影响。
4.2 限制l1访问延时的原因是什么?
在系统启动过程中,仅在很早期启动阶段cpu处于实模式,开启paging之后,cpu接收的load/store指令对应的地址均为虚拟地址,在访问l1 cache的时候还需要经过虚拟地址va到物理地址pa的转换。现代cpu通常采用virtual index physical tag的l1结构 。这种l1结构的一大好处就是可以在index cache set的时候同时访问tlb (相当于隐藏了部分l1访问延时),一个x64下的l1访问示意图如下所示。
tlb:translation lookaside buffer,即旁路转换缓冲,或称为页表缓冲
对于4kb大小的page,共有12bit page offset,其中低6bit为cacheline offset (64b cachelinesize),剩余6bit作为l1 index bits,这也就意味着l1只能限制于64个cache set。对于32kb l1-d,也就意味着其每个set对应8 way (32kb/64/64 = 8) 。sunny cove的48kb l1-d对应每个set12 way。由上图可以看出,l1访问延时的关键路径为tlb访问以及tlb hit之后对相应l1 cache set的tag matching,由于cache set是简单的lookup,我们可以认为在tlb查询结束得到ppn的时候立即可以进行tag matching。(tlb也是一个小的set-associatative cache,也需要进行tag matching。因此访问时间要长于l1 set lookup)。因此,tlb的查询时间和l1的associativity (即图中的tag matching)决定了l1的访问延时。
为了保证l1访问延时可以做的足够低,通常需要设计l1的associativity尽量小。因此在sunny cove之前通常为8 way。这里sunny cove增加了一个cycle的l1访问延时,不确定是由tlb的改动引起的还是l1 associativity由8 way增加到12 way。但是总的来说,我们可以看出l1为什么不能设计得很大,主要是由于virtual index physical tag的结构引起的。
另一方面,l1 cache 32kb 是算好能覆盖整个4kb页的,从第一代core到现在十代都是这么设计的。每个set有8个way,也就是说可以同时缓存8页,加大容量一方面提高延迟的同时可能会导致很大一部分way在很多时候是闲置浪费性能。
总的来说,增加cache line的大小,但是相应的cache miss的延迟会大大增加,尤其是考虑到l1会缓存虚拟地址,一旦miss意味着penalty会增加更多。另外如果增加wayness或者sets,会造成寻址延迟增高,也是得不偿失。
另外,l1 cache的替换以及prefetch策略都是很复杂的,这些也会导致延迟的提高对性能的影响会大于容量的提高。
4.3 苹果m1的l1为什么会比x-86的l1大?
为什么苹果的m1可以做到192kb的l1-i(128kb l1-d),同时保证3 cycle的访问延时呢?
首先一点苹果的最高主频相对intel/amd的desktop/server line的cpu要低一些,因此在时序上约束相对放松一些(主要是tag matching的comparator路径的关键路径)。其次一点,也是最关键的m1对应的macos采用的是16kb page而非x86的4kb page。
由上图可知如果扩大page size(16kb对应14bit),相当于增加了2bit的index bits,这样的话l1 cache set数目可以增加4倍(在保持associativity的前提下),因此m1的l1-i正好是sunny cove的4倍(192kb/48kb = 4)。m1的l1-d大小是128kb(4倍于32kb)。
对于问题中的l1 cache来讲,其实更多的是系统层面的取舍(page size增加也会导致内存浪费,内存碎片等问题,但是同时也会减轻页表的压力,增加tlb coverage)。不过也仅限于苹果,其m1的产品只是macbook一个设备,可以做更多的定制,对于x86来讲,历史包袱和众多设备兼容性的问题,使其很难做到像苹果这种更加灵活的架构设计。
DS1245W 3.3V 1024k非易失SRAM
日本研究团队研发可褶皱可拉伸的超薄LED显示屏幕 主要用于医疗系统
AMIC110多协议可编工业通信处理器开发方案
关于EDA设计 这几个问题你一定要知道
Facebook正在做无人机、激光器及人造卫星的研发
缓存大小对CPU性能的影响解析
VR让ChinaJoy化身“虚拟现实娱乐盛典”
华为推TCC解决方案助力5G业务敏捷可靠上线
传紫光入股美光,抢苹果订单华亚科扮先锋
热继电器使用方法
Nvidia在重塑芯片供应链?
莘莘青少年,心连中国芯——佰维存储第二届“Factory Tour”圆满举办
激光雷达的使命
电压型逆变电路分类解读 逆变电路可分为哪两大类
红外探测器——热探测器详解
扬声器在proteus中怎么找
154N-100G-R充油压力传感器工作原理
中国App在印度市场盛行,但未来数据要存储在印度
UART通信总线的特性与协议帧
解禁再生变?美司法部长:华为中兴不可信