计算机组成原理-存储器的层次结构

第三章 存储器的层次结构

(一)存储器的分类

  1. 按存储介质分类

(1)半导体存储器:

        TTL,MOS,SSD。

        易失

(2)磁表面存储器:

        磁头,载磁体

        非易失

(3)磁芯存储器:

        硬磁材料,环状元件

        非易失

(4)光盘存储器:

        激光,慈光

        非易失

  1. 按存取方式

(1)存取时间与物理地址无关 (随机存取)

        类比于数据结构中的线性表数组(取数组某个元素的时间和物理地址无关,只和index有关)

        (a)随机存储器:程序执行过程中可读可写

        (b)只读存储器:程序执行过程中只读

(2)存取时间与物理地址有关(串行访问)

        类比于数据结构中的链表

        (a)顺序存取存储器:磁带

        (b)直接存取存储器:磁盘(根据物理地址,直接移动磁头)

  1. 按在计算机中的作用分类

(1)主存

        (a)RAM:操作系统被加载到RAM

                SRAM:(Static Random Access Memory)静态随机存储器。常用制作二级缓存。

                                不必刷新电路就能保存数据。但体积大,集成度低

                DRAM:(Dynamic Random Access Memory)动态随机存取存储器。常用语制作系统内存

                                DRAM用电容存储数据,需要定时充电,刷新电路,否则出处的数据丢失。集成度高

        (b)ROM:存储机器自检和引导程序,BIOS等程序

                MROM:(Mask Read-Only Memory)掩模式只读存储器。MROM的内容在出厂前一次写入,之后不能更改

                PROM:(Programmable Read-Only Memory)-可编程只读存储器。只能写入一次数据的只读存储器,写入错误只能更换存储芯片

                EPROM:(Erasable Programmable Read Only Memory)可擦除可编程只读寄存器

                EEPROM: (Electrically Erasable Programmable Read-Only Memory),电可擦可编程只读存储器。SSD

(2)辅存

        磁盘,磁带,光盘

(二)存储器的层次化结构

  1. 存储结构综述

(1)cpu只能和主存,cache进行数据交互,而不能直接获得辅存的数据

(2)辅存的数据只能调入主存,不能直接进入缓存中。

(3)辅存到主存的映射是由OS操作系统管理的。但是主存和辅存之间的一个映射关系被放到TLB中,TLB在cache中。

(4)虚拟存储中的页表,段表,段页表被放到了主存中。cpu通过页表访问辅存时,发现缺页中断,就会先暂停程序的执行,先把数据调到内存

2.主存

(1)主存的基本结构

(2)主存和CPU的联系

3.主存中存储单元地址的分配

(1)寻址的个数有2个因素:

       (a)地址线的个数:这是内存中总的可寻址字节数

       (b)一个地址所占用的字节数:表明了一个内存单元,占用多少个字节

(2)内存可寻址的总字节数多少字节形成一个内存单元=可寻址数

(3)eg:地址线24根,按字节寻址,可寻址224=16M

               若字长为16位,按字寻址,可寻址8M个

               若字长为32位,按字寻址,可寻址4M个

4.主存的指标

(1)存储容量:存放二进制代码的总位数

(2)存取速度:

       存取时间:存储器的访问时间(读出时间,写入时间)

       存取周期:连续两次独立的读写存储器操作之间,最小的时间间隔。用于读电路,写电路,地址电路清空一次

(3)存储器带宽 (位/秒)

5.半导体存储片的基本结构

(1)地址线单向,数据线双向。

(2)半导体芯片的容量由地址线和数据线一起决定。

       地址线和数据线的根数表示了内存实际的大小,而cpu理论上的最大寻址范围,由MAR和MDR的大小决定,为2MAR∗MDR

|地址线|数据线|芯片容量|

|:---------:|:-------:|:-------:|

|10根|4根|210∗4bit|

|14根|1根|214∗1bit|

(3)片选线的作用

       eg:用16K1位的存储芯片组成64K8位的存储器

       (a)因为半导体芯片是用存储矩阵设计的,存储矩阵的一行可以看成一层楼,这层楼有多个小房间。

                因此,先把8个161K的存储器放在一行,构成一层楼。再安排4层这样的楼层,构成64K8的大楼

       (b)因为,一个地址线的地址过来后,先通过片选线(地址为的最高几位),选择楼层,

                然后用剩下的地址线低位地址,选择是楼层的那个房间

       (c)eg:当上例子中,地址线过来的数据是65535,转换成二进制是1111 1111。

                上面楼层有4层,所以地址线的前两位进行片选,也就是11,因此选择最高层

半导体存储芯片的译码方式:

(1)线选法:每个小存储单元占用一行,构成多行的线性结构

       每个小存储单元占用一行,构成多行的线性结构

       eg:161 bit的存储矩阵,占16行,因为要选择16行,所以要有4位片选线,链接所有的16个存储单元。

       这种设计导致电路设计异常复杂。

(2)重合法 : 组合多个存储单元为一行:

       通过组合多个存储单元为一行,来减少行数,达到减少片选线位数的目的,简化电路设计。但此时的存储矩阵,每行有多列存储单元,因此,用X地址译码器(确定行),用Y地址译码器(确定列),来选到具体的某个存储单元。

       eg:256 1bit重合片选法:把8个bit存储单元作为一行,设计32行即可。

              因为有32行,因此X地址译码器有5位,因为有8列,因此Y地址译码器有3位

(三)半导体随机存取存储器

1.SRAM

(1)SRAM:静态随机存储器,不用刷新电路,使用双稳态管存储数据,不掉电情况下数据存在。

(2)SRAM基本电路

2.DRAM

(1)DRAM:动态随机存储器,定时刷新电路,使用电容存储数据,不掉电情况下也需要定时对电容充电。

(2)DRAM的存储矩阵是二维的,有行有列。所以要对行和列进行片选。行列片选的片选片进行复用,即同一个针脚,先选择行,后选择列。

(3)动态RAM刷新 (刷新与行地址有关:默认数据能保持2ms)

(a)集中刷新(存取周期0.5μs)

集中刷新是一次刷新存储矩阵中所有的存储单元。即,在数据能保持的这2ms内,分为能读写的周期时间,和不能读写的电路刷新时间。这个刷新时间,也称为"死区“。电路刷新,一次刷新存储矩阵的1行,这个刷新一行的时间等于一个存取周期

eg:当存储矩阵为128128,存取周期为0.5μs时,刷新时间=128 0.5 = 64μs,即死区时间占64μs,其死区时间率为642000=3.2

(b)分散刷新(存取周期为1μs)

分散刷新是,在每次读写数据后,立刻刷新改行存储矩阵。即一个存取周期=读写时间+电路刷新时间。而读写时间等于电路刷新时间,所以,1个存取周期等于2个读写时间,为20.5=1μs。

分散刷新不存在死区,但是使得一次存取时间变成原来的2倍

(c)异步刷新

异步刷新不在一次刷新所有行,也不再每次读写后立刻刷新,而是保证在2ms内,每一行得到刷新即可。所以其死区时间为0.5μs。如果将刷新安排在指令译码阶段,则不会有死区时间(指令译码阶段,不产生cpu去内存的io)

eg:对于128128的存储矩阵,把2ms平均到每行为2/128=15.6μs,即每隔15.6μs顺着存储矩阵的行编号,向下个编号刷新。

(四)主存储器与CPU的连接

1.存储容量的扩展

(1)位扩展

     用2片1K4位存储芯片组成1K8位存储器

     位扩展没有增加房间号,只是房间里面多住人了。即地址线不变,增加数据线,其他没变化

(2)字扩展(增加存储字的数量)

用1K8位存储芯片组成2K8位的存储器:原来的1K字即10根地址线,变成现在的2K即11根地址线,多出来的1根地址线用来进行片选。

(3)字位扩展

用8片1K4位的存储芯片组成4K8位的存储器。即地址线先扩展4位成D0到D7,然后地址线由原来的10根扩展成12根,新增的2根进行限片选,一次选择2个芯片。此时的片选线变成片选译码器

2.存储器与CPU的连接

(1)地址线的连接:先连接芯片固有的

(2)数据线的连接:先连接芯片固有的

(3)读写控制线的连接:每个芯片都要连接,包括增加的

(4)片选线的连接:用增加的地址线进行片选线

(5)芯片选择:选择芯片数量组少的解决方案

eg:设CPU有16根地址线,8根数据线。现有以下几种存储芯片:1K*4位RAM,4K*8位RAM,8K*8位RAM,

2K*8位ROM,4K*8位ROM,8K*8位ROM,和74138译码器。请画出CPU和存储器的连接图。要求:

主存地质分配如下:6000H~67FFH为系统程序区。6800H~6BFFH为用户程序区。

(五)双口RAM和多模块存储器

1.单体多字系统

(1)把原来的单字长寄存器改变为多字长的寄存器,使得内存一次可以读出多个字。从而增加访存速度

(2)这种设计实际上不存在,因为多字长在跳转指令时会产生顺序读取的数据无效,降低效率

2.双口RAM

(1)双口RAM是含有两套相互独立的读写控制电路而得名。同时进行2次独立的读写操作,所以会增加存储器

(2)当两套读写电路同时操作同一块内存地址时,会产生写冲突。因此,增加一个busy标志(低电平)

3.多体并行 - 高位交叉,顺序编址

(1)多体并行是编址方式的一种转变。存储矩阵有多个行,每个行成为一个体。

(2)高位交叉编址的意思是:用地址的高位表示是哪个体。所以4体高位交叉编址就变成了高位分别为00,01,10,11$,低位作为体内地址。因此形成顺序编址。

4.多体并行 - 低位交叉编址,各体轮流编址

(1)低位为体号,高位为体内地址。正好使得连续地址分布在不同的体

(2)低位交叉编制,使得读取连续地址的数据时,采用流水线方式:

     流水线为2步,分为通知体传输和体传输时间。

     通知体的时间为cpu发出信号到体的时间,即总线传输时间。体传输时间为体读取数据的时间。

     为了使流水线可以对齐,要求1个存取周期内,正好通知到所有体,所以存取周期为体数的整数倍。

5.高性能存储芯片

(1)SDRAM(同步DRAM):系统时钟控制下进行读出和写入,CPU无需等待

(2)RDRAM:由Rambus开发,解决存储器带宽问题

(3)带cache的DRAM:在DRAM的芯片中集成了一个由SRAM组成的cac

(六)高速缓存存储器(cache)

cache工作原理

(1)主存单位称为块,cache称为行,实质是一个东西

(2)CPU读主存时,把地址同时送给cache和主存,cache通过地址查看此字是否在cache中,若在则立即传送给cpu。

若不在,则用主存读周期把此字从主存中读出送到cpu,与此同时,把含有此字的整个数据块从主存读出送到cache的行中

Cache层次结构

(1)cache是分层次的:L1 cache,L2 cache,L3 cache。

(2)寄存器取值时,先从L1取,去不到则向下层的L2 cache取,L2再取不到,去内存取。

(3)每个核心享有独自的L1 cache和L2 cache,所有核心共享L3 cache。 L1,L2cache是片内cache

(4)L1 cache分为L1P和L1D,分开存储指令和数据。使指令和数据可以同时读取

cache与内存的映射关系(读方式)

(1)全关联:full associative cache

     将内存也看成line的方式存储,全关联是指,内存的任意一个line可以映射到cache中的任意一个line。

     全相连映射的主存地址分为2部分:主存块号|字块内地址;cache标记位为主存地址除了字块内地址的全部高位。

     这就需要一个表,记录主存块号到cache行号的映射

     这种方式,在查找内存是否在cache中时,要查找所有的tag。 而且查表的比较器很难实现

(2)直接映射:Direct Associated Cache

     将内存按照cache大小划分为n个Page,内存中Page的line0对应cache的line0。因此直接映射下,cache标志位标志的是内存的page号。

     另一种理解方式:主存中的几个特定行,映射到cache的一个特定行。多对一的关系。这种关系满足公式 i = j mod c

     其中,i:cache行的行号。j:主存块的块号。c:cache的行数。标志位=j/c向下取整

     直接映射相当于多体高位交叉顺序编址。体相当于整个cache,主存包含多个体。采用顺序编址,使得主存地质分成三部分: 体号(第几个cache)|cache块号|块内地质。所以cache把主存中的最高几位(cache体号)作为标记位

     当恰好访问的几个主存地质,映射到了相同的cache行,就会产生抖动

(3)组相联:Set Associated Cache

     i. 组相联映射把cache划分为过个way,每个way的结构一样。内存按照way的大小划分Page,page间采用直接映射方式,page内采用全相联映射方式 。

即:page号到组号的映射关系是多对一且固定的。

u为cache的way个数,v为way中的行数 。 v路组相联:把几行作为一个way

这种方式,把主存地址分为3部分:主存自块标记|组内地址(不用有way号,因为是映射出来的)|字内地址。分别对应cache的标记位,way内的行号

     ii. c64+DSP的配置中,L1P使用1个way,L1D使用2个way,L2不区分程序和数据,使用4个cache way

二. cache的写方式

  1. 写通(Write through)

cpu在更新cache的内容时,会立刻更新对应的内存的值

写直通要同时写主存和cache,造成速度降低

  1. 写回(Write Back),line增加dirty

i. 在cache line的内容需要被置换时,先将修改过的值写会内存,再置换成新的line值

ii. 如何知道line被修改过呢,需要在line中增加一个dirty标志位,dirty为1,表示内存的内容被修改过,置换时需要写回内存

iii.LiP缓存程序,程序不会被修改,所以L1P没有dirty标志,而L1D缓存数据会被更改,所以有dirty标志位

三. cache一致性

1.多核cpu下的cache一致性问题

多核处理器中运行着不同的线程,当1个核心中的1个线程使修改一个内存地址的数据时,由于cache的写回策略,导致该核心中cache line的数据还没写回到对应内存。当另一个核心的进程也需要操作这个内存地址的数据时,从内存地址中读取的数据就是旧值。

2.cache一致性协议的2个硬件操作

(1)Write Invalidation:置无效

当一个核心的cache line更新了数据时,如果发现其他核心的cache line也存在对应内存地址数据的拷贝,则把其他核心的cache line的valid标志位置为无效

(2)Write Update:数据更新

当一个核心的cache line更新了数据时,如果发现其他核心的cache line也存在对应内存地址数据的拷贝,则更新其他核心的cache数据

Write Update设计复杂,会产生大量的数据更新操作,通常使用Write Invalidation

3.cache一致性协议(Write Invalidation的实现:MESI)

(1)MESI协议包含4种状态

     M:modify,该cache line数据有效,被更新过,和内存中不一致,数据只存在本cache中

     E:Exlusive,该cache line数据有效,且和内存中一致,数据只存在本cache中

     S:shared,该cache line数据有效,数据和内存中一致,数据存在多个核心的cache line中

     I:invalid,此cache line数据无效

(2)cache snoop(窥探)

     MESI协议中,每个core的cache控制器不仅可以知道自己cache的读写情况,同时也窥探其它core的cache的读写操作。每个cache line的数据状态在本core和其它core的读写状态之间进行变换。

(3)MESI的读写行为

     i. Local Read:本core读本cache

     ii. Local Write:本core写本cache

     iii. Remote Read:其它core读其它cache

     V. Remote Write:其它core写其它cache

(4)目录式的一致性协议

     i. MESI协议需要snoop窥探,电路实现简单,但是cache line的沟通成本很高

     ii. 有一种集中管理的目录式协议,将cache共享信息集中在一起,只有共享的cache line才会交互数据,减少沟通成本

(七)虚拟存储器

3.7 虚拟存储器

一. 页式虚拟存储

1.概念

(1)程序员在比实际主存大得多的逻辑地址空间中编写程序

(2)程序执行时,把当前需要的程序段和数据块掉入主存,其他暂不使用的放在磁盘上

(3)执行指令时,通过硬件将逻辑地址转化为物理地址。虚拟地址高位为虚页号,低位为页内偏移地址

(4)当程序发生数据访问或程序访问失效(缺页时),由操作系统把信息从磁盘调入主存中

2.分页

(1)基本思想:

内存被分成固定长度且长度较小的存储块(页框,实页,物理页)

每个进程也被划分为固定长度的程序块(页,虚页,逻辑页)

通过页表,实现逻辑地址想物理地址的转化

(2)逻辑地址

程序中指令所使用的地址(进程所在地址空间)

(3)物理地址

存放指令或数据的实际内存地址

3.“主存-磁盘”层次

(1)与“cache-主存”层次相比,页大小远比cache的行大小要大(windows中的页位4k)

(2)采用全相联映射方式:磁盘中的任意一个页能用射到内存中的任意一个页

因为缺页导致中断时,操作系统从磁盘拿数据通常要耗费几百万个时钟周期。增大页大小,可以减少缺页中断

(3)为什么让软件处理“缺页”

因为访问磁盘需要好粉几百万个时钟周期,硬件即使能立刻把地址打给磁盘,磁盘也不能立即响应

(4)为什么地址转换用硬件实现

硬件实现地址转换可以加快指令的执行速度

(5)为什么页写会策略采用write back

避免频繁的慢速磁盘访问

4.页表结构

页表的首地址放在基址寄存器。采用基址寻址方式

每个页表项前面有一个虚页号:从0开始递增的序号。页表项又分为几个结构:

(1)装入位:该页是否在内存中

(2)修改位:该也在内存中是否被修改

(3)替换控制位:用于clock算法

(4)其他

(5)实页号(8进制)

5.TLB

(1)一次磁盘引用需要访问几次主存?2次,一次查页表,一次查物理地址。于是,把经常查的页表放到cache中。这种在cache页表项组成的页表称为TLB(Translation Lookside Buffer)

(2)TLB的页表结构:tag + 主存中的页表项

当采用全相连映射时,tag为页表项前面的虚页号。需要把tag和虚页号一一比较

当采用组相联映射时,tag被分为tag+index,虚页号的高位为tag,虚页号的低位为index,做组内索引(属于组内第几行)

二. 段式虚拟存储

  1. 段式存储是根据程序逻辑,给程序分段。使得每段大小不同。这种虚拟地址划分方法适合程序设计
  2. 段式存储的虚拟地址由段号和段内偏移地址组成。段式虚拟存储器到物理地址的映射通过段表实现
  3. 段式虚拟存储会造成空页

三. 段页式虚拟存储

  1. 段页式虚拟存储,先把程序按照逻辑分成段,再把每段分成固定大小的页。
  2. 程序对主存的调入调出是按照页面进行的;但他有可以根据段实现共享和保护
  3. 缺点是段页式虚拟地址转换成物理地址需要查询2个表:段表和页表。段表找到相应页表的位置,页表找到想也页的位置
  4. 段页式细腻地址的结构可以为以下形式:

程序地址: 用户号(进程pid) | 段号 | 页号 | 页内偏移地址

eg:

(1)某计算机的cache块工16块,采用二路组相联映射方式,每个主存块大小为32字节,按照字节编制。则主存129号单元的主存块硬装如刀cache的组号是:(C)A、0       B、2       C、4       D、6

解:二路组相联,所以每组2块,共有16/2=8组,所以组号占3位。

      每块32字节,所以块内地址占5位。

      129转化为二进制:1000 0001:前3位为组号,100:=4

(2)假设用若干个2K*4位的芯片组成一个8K*8位的存储器,则地址0B1FH所在芯片的最小地址为:

解:用2片组成一行,共4行,所以片选地址占2位。片内地址有2k=211,所以占11位

      0B1FH:000|0 1|011 0001 1111 这三段为前缀,片选地址,片内地址。

      该片芯片的最小地址是片内地址全0:000|0 1|000 0000 0000 = 0800H

3)某计算机的主存地址空间大小为256MB,按字节编址,指令cache和数据cache分离,均有8个cache行,每行大小为64B,数据cache采用直接映射方式,现有两个程序A,B对数组int a[256][256]进行遍历,程序A按行遍历,程序B按列遍历。假定int类型数据用32位补码表示,数组a按行优先方式存储,其地址为320(十进制)。

问:(1) 若不考虑cache一致性维护和替换算法所需的控制位,则数据cache的总容量占多少?

      (2) 数组元素a0和a[1][1]各自所在主存块对应的cache行号分别为多少(cache从0行开始)?

      (3)程序A和B的数据访问命中率各自为多少?哪个程序的执行时间更短?

解:(1) 因为cache的总容量是cache每行的数据存储大小+tag位+数据是否有效位+其他一致性控制位。

          主存地址空间256MB,占28位。直接映射方式,8行,行号占3位。每行64B,所以块内地址占6位,因此,tag占28-3-6=19位

          每行有一个数据有效位。因此,cache共(19+1+64*8)*8 = 532字节

      (2) 因为int类型占32位,所以一个int占4B。a0 = 320 + 31*4 = 444 a1 = 320 + 4*(256+1) = 1348。

          块内地址占6位,直接映射下行号占3位,因此444 = 110 | 111100,所以行号为6

          1348 = 10 | 101 | 000100,所以行号为5

      (3) 因为1行cache占64B,每个int数占4B,所以一行有16个数。第一个数会因cache缺失而不命中,然后调入cache。,使得后面的15个int访问全部命中。所以命中率为1516 对于程序B,每次调入16个数,小于数组每行的128个元素,因此每次都不会命中,命中率为0

(八)外存储器

猜你喜欢

转载自blog.csdn.net/yutong5818/article/details/81301679