高速缓存与主内存的关系是什么?

2024-11-23 10:41:10
推荐回答(4个)
回答1:

高速缓存是为了解决主内存存取速度一直比中央处理器操作速度慢得多,使中央处理器的高速处理能力不能充分发挥,整个计算机系统的工作效率受到影响问题而出现的。

根据程序局部性原理,正在使用的主内存某一单元邻近的那些单元将被用到的可能性很大。

因而,当中央处理器存取主内存某一单元时,计算机硬件就自动地将包括该单元在内的那一组单元内容调入高速缓存,中央处理器即将存取的主内存单元很可能就在刚刚调入到高速缓存存储器的那一组单元内。

于是,中央处理器就可以直接对高速缓存存储器进行存取。在整个处理过程中,如果中央处理器绝大多数存取主内存的操作能为存取高速缓存存储器所代替,计算机系统处理速度就能显著提高。

扩展资料:

高速缓冲存储器的容量一般只有主存储器的几百分之一,但它的存取速度能与中央处理器相匹配。

有很多方法可用来缓和中央处理器和主存储器之间速度不匹配的矛盾,如采用多个通用寄存器、多存储体交叉存取等,在存储层次上采用高速缓冲存储器也是常用的方法之一。

很多大、中型计算机以及新近的一些小型机、微型机也都采用高速缓冲存储器。

参考资料来源:百度百科-高速缓冲存储器

回答2:

CPU的运算速度比主内存的读写速度要快得多,这就使得CPU在访问内存时要花很长时间来等待内存的操作,这种空等造成了系统整体性能的下降。为了解决这种速度上的不匹配问题,我们在CPU与主内存之间加入了比主内存要快的SRAM(Static Ram,静态存储器)。SRAM储存了主内存的映象,使CPU可以直接通过访问SRAM来完成数据的读写。由于SRAM的速度与CPU的速度相当,从而大大缩短了数据读写的等待时间,系统的整体速度也自然得到提高。 高速缓存即 Cache,就是指介于CPU与主内存之间的高速存储器(通常由静态存储器SRAM构成)。
Cache的工作原理是基于程序访问的局部性。依据局部性原理,可以在主存和CPU通用寄存器之间设置一个高速的容量相对较小的存储器,把正在执行的指令地址附近的一部分指令或数据从主存调入这个存储器,供CPU在一段时间内使用。这对提高程序的运行速度有很大的作用。这个介于主存和CPU之间的高速小容量存储器称作高速缓冲存储器(Cache)。
  CPU对存储器进行数据请求时,通常先访问Cache。由于局部性原理不能保证所请求的数据百分之百地在Cache中,这里便存在一个命中率。即CPU在任一时刻从Cache中可靠获取数据的几率。命中率越高,正确获取数据的可靠性就越大。

回答3:

1、系统主存一般就是指内存。
2、高速缓存是用来协调CPU与主存之间存取速度的差异而设置的。一般情况下,CPU的工作速度高,但内存的工作速度相对较低,为了解决这个问题,通常使用高速缓存,高速缓存的存取速度介于CPU和主存之间。系统将一些CPU在近几个时间段经常访问的内容存入高速缓冲,当CPU需要使用数据时,先在高速缓存中找,如果找到,就不必访问内存了,找不到时,再找内存,这样就在一定程度上缓解了由于主存速度低造成的CPU“停工待料”的情况。
高速缓存当然越大越好(大的话能存的东西多,CPU在高速缓存中找不到需要的内容的、再去访问内存的机率就小),但受成本的限制,高速缓存不可能做的太大。
上面的解释只是原理性的东东,具体的还要看相关资料。

回答4:

无关系