欢迎光临
我们一直在努力

FB-DIMM串行内存技术

建站超值云服务器,限时71元/月

一、内存带宽制约系统性能

fb-dimm近乎是一种梦幻级的内存技术,在现有技术基础上实现跨越式的性能提升,同时成本也相当低廉。

在整个计算机系统中,内存可谓是决定整机性能的关键因素,光有快的cpu,没有好的内存系统与之配合,cpu性能再优秀也无从发挥。这种情况是由计算机原理所决定的,cpu在运算时所需要的数据都是从内存中获取,如果内存系统无法及时给cpu供应数据,cpu不得不长时间处在一种等待状态,硬件资源闲置,性能自然无从发挥。

反之,倘若拥有一个高效的内存系统,cpu从发出请求到获取数据等待时间非常短暂,那么便可将更多的资源用于实际运算处理,对应的性能自然也就越高。正因为如此,包括intel、amd在内的cpu厂商才会充分考虑到内存的配合问题,目前intel正积极推广高带宽的ddr2内存,而amd则直接把内存控制器整合于cpu内部,达到降低延迟时间的目的。尽管方式不同,但最终目的都是为了让cpu平台能够发挥出更卓越的效能。

和pc机相比,服务器系统对内存性能更加渴求。服务器要承担的任务量远甚于pc,大量的突发访问、高强度的数据传输、频繁的数据交换、从不间断地稳固运转,这一切都要求服务器系统拥有极高的性能,多处理器往往是标准配备,与之对应,大容量、高速度的内存系统也至关重要。为此,服务器在内存方面往往不惜血本。在许多应用中,4gb容量、双通道设计只是入门产品的基准,在针对敏感应用的多路服务器系统中,多达几十gb甚至上百gb容量也寻常可见。但即便如此,内存依然是服务器性能提升的瓶颈,使用的也仍然是传统的ddr技术。

无论针对何种应用的服务器,单路系统还是多路系统,ecc registered ddr400内存便是所能达到的最高水平(ddr2刚开始推广,尚未达到普及的水平),它的有效带宽只有3.2gbps,与pc内存没有什么差异。即使使用双通道技术,也只能达到6.4gbps的水平。为了解决这个问题,risc架构的高端服务器系统大多为每一个cpu都配备了专属性的内存资源,再通过高速总线实现资源共享,这样单cpu便可拥有6.4gbps内存带宽,至于8路的整套系统,有效内存带宽就可以达到51.2gbps的高水平,很好满足了当前应用的需要。

二、内存设计思想的变迁

然而,这种做法只能暂时解决问题,很难应对未来的发展需求,而且容易反过来对cpu的设计造成制约。举个例子,双通道ddr400最多只能提供 6.4gbps带宽,那么cpu前端总线带宽也不应超过这个水平,内存系统跟不上,前端总线再快也没用,实际性能还是取决于较慢的内存。我们可以看到,现在不管itanium 2、xeon、opteron还是其他的处理器,前端总线一般都没有高过这个水平。

到明年初ddr2-533标准可望成为主流,cpu的前端总线带宽也将几乎同步提升到对应的8.5gbps。但如果cpu厂商想通过提高前端总线来获得更高的性能,唯一的做法就是选择具有更高性能的内存系统。在索尼的ps3中,ibm为其研发的cell处理器就与四通道rambus xdr 3.2ghz配合,有效前端总线可达到25.6gbps的高水平,远远超过现有任何一种处理器。

那么,为什么ddr体系在速度上如此滞后?根本原因还应归结于并行设计架构。标准的ddr、ddr2模组都采用64位结构,一次可传输64bit二进制数据,所对应的是64位并行的内存总线。然而,由于先天限制,并行总线很难实现跨越性的性能提升。

首先,并行总线很容易相互干扰,令传输信号不稳定,频率很难迅速提升,我们所看到内存规格按部就班地缓慢提升并不仅仅是针对市场消费考虑,更多是技术现实使然;其次,内存模组发送出的并行数据要求在同一个传输节拍中同步到达接收端,这就要求主板pcb中的64条线路长度保持严格一致(主板上采用蛇形方式布线就是为了达到这个目的),这就对pcb设计提出苛刻的要求。

而随着内存频率不断提升,允许的线路长度误差越来越小,最终将导致设计线路成为不可能完成的任务—从这个趋势来看,并行内存的发展空间有限,最终必然会朝向窄位宽和串行化的方向发展;第三,同样由于布线的原因,ddr体系最多只能实现双通道,而这就必须用到128条数据线路,占据大量的pcb面积。即使非要实现4通道,主板也没有这么多pcb空间可以利用,数据同步化问题会带来更多的困扰。种种缺陷造成ddr体系速度提升缓慢,即便未来的 ddr3也谈不上有多好的表现,依然会保持缓慢升级的速度。

最先挑战这个问题的是rambus公司,它最初提出的rdram内存实际上就是采用窄位宽、高频率的设计思想来提升性能,但过高的成本和糟糕的商业策略葬送了这项优秀技术的市场前景。2003年,rambus在此基础上发展出更先进的xdr内存,依然基于此种设计思想,一举将内存系统的带宽提升到19.6gbps以上(四通道xdr 2.4ghz),最高可达到100gbps的超级水平(八通道xdr 6.4ghz)。

但可惜的是,xdr同样无法摆脱高成本的困扰,未来它的应用领域也许只能局限于索尼ps3游戏机或者ibm基于cell处理器平台的计算机产品。那么,能否在现行ddr体系基础上,改用串行思想来设计低成本的高性能模组呢?

intel独家开发的fb-dimm技术对此作了肯定的回答。fb-dimm最大的特点就是采用已有的ddr2内存芯片,但它借助一个缓冲芯片将并行数据转换为串行数据流,并经由类似pci express的点对点高速串行总线将数据传输给cpu。

据悉,fb-dimm可以在现有ddr2-533基础上轻易实现25.2gbps的高带宽,而该标准的内存系统在明年即可面市。若采用ddr2 -800颗粒,fb-dimm的带宽将进一步提升到38.4gbps,而它的带宽极限可突破57.6gbps—尽管这个数字仍然逊于xdr系统,但它的优点在于成本升高极为有限,是一项廉价的技术。

intel推出fb-dimm显然不是为pc所准备,这项技术将首先应用在服务器系统中,intel的itanium平台将首先从fb-dimm受益。现在,就让我们走进fb-dimm世界,向大家揭示这一项堪称神奇的新技术。

三、fb-dimm的逻辑架构

fb-dimm的全称是“fully buffered dimm(全缓存模组技术)”,大家从其名称中便可直观了解到它的设计思想。如上面所述,fb-dimm其实就是在一个标准ddr2内存基础上,增加了一枚用于数据中转、读写控制的缓冲控制芯片。

该枚芯片承担着以下几方面的任务:第一,负责管理fb-dimm的高速串行总线,承担数据发送和接收的指派任务,这包含一组数据读取的14位串行通路和一组用于数据写入的10位通路;

第二,实现并行数据与串行数据流的翻译转换工作—我们知道,缓冲芯片从内存中读取出来的原始数据原本都为并行格式,它们在通过高速串行总线发送出去之前就必须先转换为对应的串行数据流,而这个任务也必须由缓冲芯片来完成,反之,从内存控制器传来的串行数据流要转成指定的并行格式,然后才能写入到内存芯片中,缓冲芯片自然也要承担这个任务;

第三,缓冲芯片必须承担多个模组的通讯联络任务,如果在一个内存通道中存在多条fb-dimm模组,那么各个fb-dimm模组间的数据都是通过缓冲芯片来传递、转发的。不难看出,缓冲芯片实际上是fb-dimm的大脑,它承担所有的控制、传输和中转任务。

使用串行总线作为传输媒介,fb-dimm便顺理成章拥有跨越式的高接口带宽。根据1.0版标准定义,fb-dimm模组的串行总线有 3.2ghz、4.0ghz和4.8ghz三种频率规格,而每条模组的有效位宽为24bit,所对应的接口带宽便是9.6gbps、12gbps和 14.4gbps,远远超过了现有的ddr2内存。

不过,如果你认为这就是fb-dimm的实际性能,那你就错了,fb-dimm的接口带宽与实际读写带宽其实是两个概念,前者所指的只是每个模组串行总线的最高带宽,它在含义上类似串行ata接口—串行ata的总线带宽达到150mbps,但这并不是指串行ata硬盘能达到这个速度,代表的只是带宽的最高值。

同样,fb-dimm的接口带宽同样如此,模组的实际性能仍取决于内存芯片规格和模组位宽设计。如果采用ddr2-533芯片、64bit位宽设计,那么这条fb-dimm的有效带宽仍然只有4.2gbps,同现有的ddr2-533内存完全一样。fb-dimm之所以能拥有高性能,关键在于串行传输技术让它摆脱了并行总线难以实现多通道设计的问题,使得在计算机中引入六通道设计成为可能,借此达到传统ddr体系难以想象的超高带宽,这就是fb -dimm的真正奥秘所在。

不过,引入缓冲设计也会产生一个新的问题。数据在传输过程中需要经过缓冲和转换,不可避免需要花费额外的延迟时间,对性能产生负面影响。但随着工作频率的提升,这个缺陷会变得越来越不明显。为了保持信号稳定,ddr2内存的延迟时间将随着工作频率的提高而快速增加,而fb-dimm的延迟时间增幅平缓,所以虽然现在fb-dimm延迟较高,但当单条模组的带宽达到4gbps左右时,fb-dimm与ddr2内存延迟时间相当,超过这个临界点之后,ddr2内存的延迟时间将明显长于fb-dimm。换句话说,fb-dimm系统不仅具有更高的数据带宽,而且延迟时间更短、反应速度更快。

四、fb-dimm的中枢神经

串行总线设计是fb-dimm赖以拥有高效能的基础。实际上,intel并没有另起炉灶从零开始设计,而是直接沿用了许多来自于pci express的成果,其中最关键的就是使用差分信号技术(differential signaling)。

关于差分信号技术,此前我们在介绍串行ata、hypertransport和pci express总线时都有过多方探讨,这里不妨进行简单重述。我们知道,现有各种并行总线都是以一条线路来传输一个数据信号,高电平表示“1”,低电平表示“0”,或者反过来由低电平表示“1”,高电平表示“0”。单通道结构的64bit内存需要使用64条金属线路来传输数据,双通道就需用到128条线路。

当数据在线路传输时,很容易受到电磁环境的干扰,导致原始数据出现异常,如高电平信号电压变低,或低电平的电压变高,这些干扰都有可能让接收方作出错误的判断,导致数据传输失败。过去业界曾为这个难题大伤脑筋,当初硬盘数据排线从40针提高到80针细线(增加40根地线)就是为了降低传输干扰,但直到串行技术引入后问题方告解决。

与传统技术迥然不同,差分信号不再是以单条线路的高低电平作为“0”和“1”的判断依据,而是采用两条线路来表达一个二进制数据—数据究竟为 “0”还是“1”取决于这两条线路的电压差。这样,即使受到严重的外来干扰,导致两条线路传输的电平信号发生较大范围的电压波动,但它们之间的电压差依然可以保持相对稳定,接收方便能够作出正确的判断。因此,差分信号技术拥有非常强的抗干扰能力,但因它需要占用两条线路,很难被引入到并行总线技术中,只有针对服务器应用的scsi总线是个例外。

fb-dimm借鉴pci express技术的第二个地方,就是其串行总线也采用了点对点结构。目前,ddr体系的并行总线无法在同一时刻同时发送和接收数据,二者根据指令轮流进行。然而fb-dimm却可以在同一时刻同时发送和接收数据,奥秘在于它拥有两个串行通路,一个用于数据发送,一个用于数据接收。与之对应,fb- dimm的缓存芯片有专用的发送控制逻辑和接收控制逻辑,数据读出操作和写入操作可在一个周期内同步进行。这实际上将内存系统的理论延迟时间缩短了一半,弥补了缓冲处理所造成的损失。

较为特殊的是,fb-dimm的数据发送总线与接收总线是不对等的,发送总线一共有14个线路对,一次向内存控制器发送14bit数据。而接收总线采用10位设计,每次只能够接收10bit数据。笼统地说,单通道的fb-dimm模组就是24bit设计。这种不对等设计之前没有先例,但它却十分符合内存系统的客观实际。在大多数情况下,cpu从内存中读出的数据总是远远多于写入到内存的数据,与之对应,读取总线带宽高于写入总线的设计方案科学合理,而且十分经济。

五、fb-dimm的信息中转站

缓冲控制芯片是fb-dimm的中枢神经,它有一个专用名称:advanced memory buffer,意为高级内存缓冲。前面我们提到,fb-dimm的所有控制功能都是由它来实现,而不仅仅只是用于缓冲数据。下面,我们将深入其逻辑内部,剖析它的结构。

根据前面所述,我们可以将缓冲芯片的功能分解为串行总线传输、并行-串行数据互转、内存读写控制以及缓冲芯片通讯等四大部分,这些功能都有专门的逻辑单元一一对应。在串行总线传输部分,我们介绍过其不对等的设计,数据发送14bit,数据接收10bit。

在缓冲芯片逻辑内,发送部分被称为“northbound(北区)”,而接收部分则被称为“southbound(南区)”,北南二区的总线控制职能分别由缓冲芯片中的“中转/合并(pass through&merging)”、“中转(pass-through)”控制逻辑所掌管。而在同一个通道的多个fb-dimm模组中,各个缓冲芯片的“中转/合并”逻辑直接串联,“中转”逻辑也与其他“中转”逻辑相连,二者泾渭分明。另外,因北区负责数据发送,来自后一条模组的数据在传给前一条模组的同时会被合并处理,这就是将控制部分称为“中转/合并”逻辑的原因。

并-串数据互转是缓冲控制芯片的又一个关键点。对于数据发送的北区,就是将从内存中读取出来的并行数据预先转换为串行数据流,它是由缓冲芯片的 “串行转换逻辑(serializer)”来完成的。而对于北区接收到的数据,则是由“并行转换/解码逻辑(de-serializer &decode logic)”处理的,首先将串行数据转为对应的并行格式,然后将数据流包含的写入命令和地址信息进行解码,并据此完成写入操作。

毫无疑问,数据读取和写入操作的最终对象都是fb-dimm模组内的内存芯片。我们在缓冲控制芯片的逻辑中发现,缓冲芯片与内存芯片的通讯完全是由“数据总线接口(data bus interface)”进行统一掌管,它也是二者之间最主要的连接点。在读取数据时,内存模组中传出的并行数据经过数据总线接口后指派给上面的“串行转换逻辑”,得出的串行数据流被发送给内存控制器。而进行写入操作时,并行化后的数据也必须通过这个接口,再写入到指定的区域。

显然,它承担的只是简单的转换控制工作而已,但从中我们可以看到,fb-dimm模组芯片采用多少位的设计无关紧要,其实intel可以将它设计为64bit,升级更为平滑,也可以设计为128bit模组来获得更高的性能,在现有技术条件下实现这样的目标可谓是轻而易举,而我们前面推测fb- dimm系统的效能其实也都还是保守数字。

到此为止,整套fb-dimm系统便能轻松运转起来了,在上述分析中不难看出,该缓冲控制芯片的结构并不复杂,功能单元相对简单,没有多大的设计难度,更多体现的是一种理念的创新。根据1.0版规范,该枚芯片将采用类似bga的封装技术,芯片整体尺寸为24.5×19.5×2.15毫米,很容易便能安装到内存的pcb板上。从样品图中可以看出,该芯片的核心面积很小,量产后的制造成本很低。其底部一共有多达655个球状焊接信号点,分布井然有序。

六、fb-dimm三大优点

在多通道设计上,fb-dimm非常灵活,你可以使用单通道、双通道、四通道或者是六通道,几乎可以同rambus公司的xdr内存相媲美,其中关键便是串行总线设计。为了更好说明这一点,我们不妨引入drr2内存来作为对比。

根据前面所述,大家可知每条fb-dimm为24位,但它是由24条高速串行通路组成,不存在信号同步化的问题,对应主板pcb的线路也根本不必讲究长度一致,设计难度得到有效控制。从线路数量来考虑情况也与之类似,因使用差分信号技术,传输一个数据需要占用两条线路,那么单个fb-dimm通道就一共需要48条数据线路,再加上12条地线、6条供电线路和3条共享的线路,线路总数只有69条。与之形成鲜明对比的是,一条ddr2模组总共需要用到240条线路,足足是fb-dimm的三倍还多。而且ddr2内存的数据线路必须保持严格一致,设计难度较大。

从对比中大家可以看到二者的明显差别,即便是单通道ddr2系统,主板pcb上的空间被密密麻麻、设计极其复杂的蛇形线路占据,没有任何空余的地方。此外,数据线路和地线总共要占据两层pcb,供电线路又要占据一层,资源占用比较厉害。而图5右侧的双通道fb-dimm方案就简单了许多,传输线路只占据极少的一部分pcb区域,总共只要两层pcb即可,差异极为明显。

目前,业界已很好地掌握了双通道ddr/ddr2技术,pcb设计人员可以在北桥芯片/cpu与内存dimm槽间的空位设计出480条连接线路,至少其中的128条数据线需要保持严格一致。那么,fb-dimm的多通道设计就变得非常自然了,六通道也只需要使用到414条连接线路,这些线路几乎都不需要保持严格一致的长度,实现成本比双通道ddr/ddr2要低得多。

高性能并非fb-dimm的唯一优点,对服务器系统来说,fb-dimm另一个关键的优点是它可实现超大容量。每个fb-dimm通道都可以最多串联8条内存,一个服务器系统最多可以实现6个通道,装载48条fb-dimm内存,而每条fb-dimm内存的最大容量达到4gb,这样该系统可容纳的最高容量就达到了192gb。这么大的容量对于普通服务器没有什么意义,但对于高端系统乃至超级计算机,fb-dimm带来的容量增益就非常明显。

要将如此之多的fb-dimm内存插槽放置在主板上肯定是个大麻烦。显然,若采用现行内存槽方案,将导致主板pcb面积难以控制,为此,intel为fb-dimm系统定义了全新的连接模式,通过一块扩展板来实现多模组的连接。

我们先来看看最基础的fb-dimm,如图所示,二者分别为单、双条fb-dimm的连接形式,连接方法与现有ddr内存没甚么不同,区别只是在于特殊的总线连接而已,内存控制器通过高速串行总线与各条fb-dimm模组的缓冲控制芯片连接,但如果要为这套系统安装数十条fb-dimm模组,那又该怎么办?

fb-dimm 1.0标准对此作出了明确的定义。主板上提供6个扩展槽,每个槽对应一个通道。每个扩展槽上可直接连接fb-dimm模组或者是内存扩展板,每个扩展板上又有8个fb-dimm连接槽,只要你愿意,可以将8条模组插在扩展板上,然后再将该内存扩展板插在主板上,依此类推,完成6通道、48条内存的安装。这种方法充分利用了机箱内部空间,巧妙解决了多模组安装的难题,构建高效能系统就显得更具可操作性。

七、fb-dimm模组的物理规格

fb-dimm 1.0标准对模组的物理规格作出了相当详细的定义,具体包括模组尺寸、金手指设计以及相关的电压参数等。在这些方面,fb-dimm并没有太出奇的地方, intel更多考虑到与现行生产设备的兼容问题,如fb-dimm模组的尺寸为133.5毫米×30.5毫米,同现有的服务器内存完全一样。

模组中可以容纳9颗、18颗或36颗ddr2/ddr3规格的内存芯片,其中18颗芯片设计为标准方案—pcb的背面容纳10颗、正面为8颗,正面中间位置留给缓冲控制芯片。如果要采用36颗芯片的高容量方案,估计要使用芯片叠加技术才行。另外,fb-dimm模组的金手指仍有240个,与 ddr2内存相同,区别只是缺口的位置不同而已。

这种设计其实也是为兼容现有生产设备之故,fb-dimm的有效针脚只有69个,我们可以从下图的fb-dimm模组中看到,只有正面左侧的金手指有连接到缓冲控制芯片的线路,其余位置的金手指并没有连接线路,只是做做样子而已。也许很多人会认为,直接设计为69个金手指会更经济一些,但这样做就必须对现有的生产设备作较大的调整,花费的成本反而更高。

由于增加了一枚芯片,fb-dimm模组内总共就要用到三种不同用途的电压,驱动ddr2内存芯片的1.8v电压,内存“命令/地址”信号的终结器则要用到0.9v电压,至于缓冲芯片本身必须用到1.5v驱动电压才行。

因此,fb-dimm模组的供电设计会比现行ddr/ddr2模组要复杂一些。与之对应的是功耗问题,非常奇怪的是,安装位置不同但规格参数完全相同的fb-dimm模组居然消耗不一样的电能。第一条模组典型功耗为3.4w,而通道内的最后一条模组一般只需消耗2.4w功耗,这种情况与缓冲控制芯片的任务指派机制有关,第一条模组的缓冲芯片必须承担更多的数据转发和合并工作,相应的,缓冲控制芯片的任务负担也多一些,多消耗电能并不奇怪。

缓冲芯片工作在很高的频率上,芯片发热量必然比较可观,有鉴于此,intel也对它的散热方案作出参考性的定义。利用一个固定在内存pcb板上的弹簧片来夹紧散热片,这一方案显然比较简单,fb-dimm内存厂商也完全可以发展出其他的方案,比如说像现在不少高速ddr500内存一样,将模组两面用金属散热片包覆起来,散热效果估计会更好些。

八、前途无量的fb-dimm

毫无疑问,fb-dimm近乎是一种梦幻级的内存技术,在现有技术基础上实现跨越式的性能提升,成本也相当低廉。更重要的是,fb-dimm并不是什么空中楼阁,到明年我们便可看到fb-dimm内存正式在intel服务器中大放光彩。单从技术角度出发,我们也许会发现fb-dimm谈不上有多少独创的东西:ddr2内存芯片、类似pci express的串行总线,但它更多是一种创新思想的产物,正因为如此,构建于成熟技术基础上的fb-dimm才拥有如此的魅力。相对昂贵的xdr内存, fb-dimm平民本质注定了它必将成为最终的胜利者。

intel表态,fb-dimm将专注于ia架构服务器领域,pc平台仍然按照ddr2、ddr3按部就班地升级,是否将fb-dimm引入暂无结论。不过,廉价、易于实现的fb-dimm注定有这样的发展潜力,只要intel愿意,让pc同样享有fb-dimm技术易如反掌,即便只用到4通道设计,fb-dimm的效能也将超出ddr2系统两倍之多,性能优势极其明显,凭借此举intel便可在竞争中占据主动地位。而这势必反过来影响cpu的设计,为配合内存带宽的大幅提升,cpu前端总线也应进行相应的速度扩展,甚至可考虑直接转向串行总线(目前cpu前端总线均为64位并行结构),以此打造的全新计算机系统,将现有平台远远甩在后头。intel没有对外界透露fb-dimm是否会将应用领域拓展,但我们相信,这样的可能性完全存在。

未来的内存之战注定会在fb-dimm与rambus xdr之间展开,现行ddr2系统终结于2007年,而ddr3大约只能用到2010年,在这之后,ddr体系很难有进一步的提升空间,朝向窄位或者串行方向发展乃是大势所趋。从性能而论,全新架构的xdr也许会有更大的优势,但高成本再次成为其致命弊端。廉价、平滑升级的fb-dimm拥有很大的胜算,再考虑到fb-dimm为intel自己的杰作,我们几乎可以断定它将成为传统ddr体系的终结者。

九、服务器模组中的ecc和registered

服务器所承担的都是关键性任务,往往要求24小时×365天的不间断运行,而且不允许中途故障频出或者频繁重启,对可靠性和稳定性两项指标要求极为苛刻。但pc机就简单得多,系统崩溃重启即可,每天开机时间多数不超过10小时。截然不同的应用实际决定了二者在内存技术上的差异,服务器内存拥有 ecc和registers功能,而针对pc的普通内存条则没有这两项技术,那么它们究竟起到什么作用呢?

ecc校验功能

ecc校验功能大家应该比较熟悉,在许多地方都有它的踪迹。ecc功能所起的作用就是检查数据在传输过程中是否出错,一旦发现接收到的数据错误就立刻将它抛弃,并命令对方重新发送一次。这种机制可以有效减少服务器的故障率,倘若数据在传输中出错却没被检查出来,cpu使用错误的数据后很可能出现更严重的错误,造成系统意外崩溃的情形。虽然在日常应用中这种情况极少出现,但服务器在高负载、长时间不间断运行的状态下,数据出错就难免了,因此对这些领域来说,内存模组拥有ecc校验功能是必不可少的。

ecc的实现原理较为简单,它在每个字节中增加一个校验字位,并以此为基础来判断数据正确与否。我们可以看到,普通ddr/ddr2内存模组都为64bit位宽,而ecc模组的位宽达到72bit,多出的8bit其实就是校验位。另外,我们必须明确一个概念,ecc只能对数据包进行检查,判断数据是否正确,如果发现错误便让对方重发,而不是直接修复数据。目前,具有错误自动修复功能的内存只有在某些大型计算机、军用战机、人造卫星、空间探测器、火星车等高精尖设备中才会用到。

ecc功能由模组中附加ecc校验芯片来实现,但要让ecc发挥作用还离不开内存控制器的支持,目前针对服务器的芯片组均可支持该项特性。一般 ecc校验只能检查出1bit的数据错误,但如果内存控制器设计得足够强大,ecc机制也可以侦测到一个字节数据中多个比特位同时出错的情形。

registers功能

registers通常与ecc概念被一并提起,不少人甚至认为二者都是纯粹的错误校验。其实,registers的概念与ecc大不相同,它指的是信号的重新驱动(re-driving)过程—在很多时候,内存中保留的数据经过多次刷新之后有可能出现失真,代表二进制数据的电平信号发生偏差。一旦出现这种情况,很容易导致数据传输出错的情形,而registers所起到的其实是一个事前预防的作用。拥有registers功能的内存模组,可以通过重新驱动控制信号来改善内存的运作,提高电平信号的准确性,有助于保持系统长时间稳定运作。不过,因为registers的信号重驱动需花费一个时钟周期,延迟时间有所增加,因此它的实际性能会稍低于普通内存,相当于以性能换取稳定性。

registers功能同样要由专门的芯片实现,它承担信号重驱动的控制职能。由于工作方式不同,有无registers功能的两种模组是不能混用的。

ecc registers功能的168-pin sdram。

赞(0)
版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com 特别注意:本站所有转载文章言论不代表本站观点! 本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。未经允许不得转载:IDC资讯中心 » FB-DIMM串行内存技术
分享到: 更多 (0)