工大在线

标题: 【转帖】处理器主板内存名词 [打印本页]

作者: solomonlee    时间: 2007-8-10 13:11
标题: 【转帖】处理器主板内存名词
双核

在2005年以前,主频一直是两大处理器巨头Intel和AMD争相追逐的焦点。而且处理器主频也在Intel和AMD的推动下达到了一个又一个的高峰,就在处理器主频提升速度的同时,也发现在目前的情况下,单纯主频的提升已经无法为系统整体性能的提升带来明显的变化,伴随着高主频也带来了处理器巨大的发热量,更为不利是Intel和AMD两家在处理器主频提升上已经有些力不从心了。在这种情况下,Intel和AMD都不约而同地将投向了多核心的发展方向,在不用进行大规模开发的情况下将现有产品发展成为理论上性能更为强大的多核心处理器系统。

    双核处理器就基于单个半导体的一个处理器上拥有两个一样功能的处理器核心,就是将两个物理处理器核心整合入一个内核中。事实上,双核架构并不是什么新出的技术,在此之前双核心处理器一直是服务器的专利,现在已经逐步面向普通用户。

    总的来说,虽然双核心处理器的性能较单核心处理器有所提升,但考虑到目前大部分的应用程序,比如Office办公软件、游戏、视频播放等应用都是单线程的,因此对于大多数用户来说选择单核心处理器仍是最佳选择。而对于进行专业视频、3D动画和2D图像处理的用户来说,就有必要考虑一下双核心的系统。
作者: solomonlee    时间: 2007-8-10 13:11
目前Intel推出的双核心处理器有Pentium D和Pentium Extreme Edition,同时推出945/955芯片组来支持新推出的双核心处理器,采用90nm工艺生产的这两款新推出的双核心处理器使用是没有针脚的LGA 775接口,但处理器底部的贴片电容数目有所增加,排列方式也有所不同。

    桌面平台的核心代号Smithfield的处理器,正式命名为Pentium D处理器,除了摆脱阿拉伯数字改用英文字母来表示这次双核心处理器的世代交替外,D的字母也更容易让人联想起Dual-Core双核心的涵义。

   Intel的双核心构架更像是一个双CPU平台,Pentium D处理器继续沿用Prescott架构及90nm生产技术生产。Pentium D内核实际上由于两个独立的2独立的Prescott核心组成,每个核心拥有独立的1MB L2缓存及执行单元,两个核心加起来一共拥有2MB,但由于处理器中的两个核心都拥有独立的缓存,因此必须保正每个二级缓存当中的信息完全一致,否则就会出现运算错误。

    为了解决这一问题,Intel将两个核心之间的协调工作交给了外部的MCH(北桥)芯片,虽然缓存之间的数据传输与存储并不巨大,但由于需要通过外部的MCH芯片进行协调处理,毫无疑问的会对整个的处理速度带来一定的延迟,从而影响到处理器整体性能的发挥。

    由于采用Prescott内核,因此Pentium D也支持EM64T技术、XD bit安全技术。值得一提的是,Pentium D处理器将不支持Hyper-Threading技术。原因很明显:在多个物理处理器及多个逻辑处理器之间正确分配数据流、平衡运算任务并非易事。比如,如果应用程序需要两个运算线程,很明显每个线程对应一个物理内核,但如果有3个运算线程呢?因此为了减少双核心Pentium D架构复杂性,英特尔决定在针对主流市场的Pentium D中取消对Hyper-Threading技术的支持。

    同出自Intel之手,而且Pentium D和Pentium Extreme Edition两款双核心处理器名字上的差别也预示着这两款处理器在规格上也不尽相同。其中它们之间最大的不同就是对于超线程(Hyper-Threading)技术的支持。Pentium D不能支持超线程技术,而Pentium Extreme Edition则没有这方面的限制。在打开超线程技术的情况下,双核心Pentium Extreme Edition处理器能够模拟出另外两个逻辑处理器,可以被系统认成四核心系统。
作者: solomonlee    时间: 2007-8-10 13:12
AMD推出的双核心处理器分别是双核心的Opteron系列和全新的Athlon 64 X2系列处理器。其中Athlon 64 X2是用以抗衡Pentium D和Pentium Extreme Edition的桌面双核心处理器系列。

    AMD推出的Athlon 64 X2是由两个Athlon 64处理器上采用的Venice核心组合而成,每个核心拥有独立的512KB(1MB) L2缓存及执行单元。除了多出一个核芯之外,从架构上相对于目前Athlon 64在架构上并没有任何重大的改变。

    双核心Athlon 64 X2的大部分规格、功能与我们熟悉的Athlon 64架构没有任何区别,也就是说新推出的Athlon 64 X2双核心处理器仍然支持1GHz规格的HyperTransport总线,并且内建了支持双通道设置的DDR内存控制器。

    与Intel双核心处理器不同的是,Athlon 64 X2的两个内核并不需要经过MCH进行相互之间的协调。AMD在Athlon 64 X2双核心处理器的内部提供了一个称为System Request Queue(系统请求队列)的技术,在工作的时候每一个核心都将其请求放在SRQ中,当获得资源之后请求将会被送往相应的执行核心,也就是说所有的处理过程都在CPU核心范围之内完成,并不需要借助外部设备。

    对于双核心架构,AMD的做法是将两个核心整合在同一片硅晶内核之中,而Intel的双核心处理方式则更像是简单的将两个核心做到一起而已。与Intel的双核心架构相比,AMD双核心处理器系统不会在两个核心之间存在传输瓶颈的问题。因此从这个方面来说,Athlon 64 X2的架构要明显优于Pentium D架构。

    虽然与Intel相比,AMD并不用担心Prescott核心这样的功耗和发热大户,但是同样需要为双核心处理器考虑降低功耗的方式。为此AMD并没有采用降低主频的办法,而是在其使用90nm工艺生产的Athlon 64 X2处理器中采用了所谓的Dual Stress Liner应变硅技术,与SOI技术配合使用,能够生产出性能更高、耗电更低的晶体管。

    AMD推出的Athlon 64 X2处理器给用户带来最实惠的好处就是,不需要更换平台就能使用新推出的双核心处理器,只要对老主板升级一下BIOS就可以了,这与Intel双核心处理器必须更换新平台才能支持的做法相比,升级双核心系统会节省不少费用。
作者: solomonlee    时间: 2007-8-10 13:12
生产CPU的公司

    Intel公司创建于1968年。在短短的二十多年内,创下令人瞩目的辉煌成就。1971年推出全球第一个微处理器,1981 年,IBM采用Intel生产的8088微处理器推出全球第一台IBM PC机,1984年入选全美一百家最值得投资的公司,1992年成为全球最大的半导体集成电路厂商,1994年其营业额达到了118亿美元,在CPU市场大约占据了80%份额。Intel 领导着CPU的世界潮流,从286、386、486、Pentium、昙花一现的Pentium Pro、Pentium II 、Pentium III到现在主流的Pentium 4,它始终推动着微处理器的更新换代。Intel的CPU不仅性能出色,而且在稳定性、功耗方面都十分理想。

    AMD 公司创办于1969 年,总公司设于美国硅谷。是集成电路供应商,专为电脑、通信及电子消费类市场供应各种芯片产品,其中包括用于通信及网络设备的微处理器、闪存、以及基于硅片技术的解决方案等。AMD是唯一能与Intel竞争的CPU生产厂家,AMD公司的产品现在已经形成了以Athlon XP、Duron、Sempron、Athlon 64等为核心的一系列产品。AMD公司认为,由于在CPU核心架构方面的优势,同主频的AMD处理器具有更好的整体性能。但AMD前期的处理器的发热量往往比较大,目前的新产品因为关注了发热量问题,现在的产品中这个问题已经不用太多注意。同时因为产品得到多家合作伙伴以及众多整机生产厂商的支持,早期产品中兼容性不好的问题已经基本解决。AMD的产品的特点是性能较高而且价格便宜。

    VIA CyrixⅢ(C3)处理器是由威盛公司生产的,其最大的特点就是价格低廉,性能实用,对于经济比较紧张的用户具有很大的吸引力。
作者: solomonlee    时间: 2007-8-10 13:12
英特尔CPU核心   

   
Tualatin
  这也就是大名鼎鼎的“图拉丁”核心,是Intel在Socket 370架构上的最后一种CPU核心,采用0.13um制造工艺,封装方式采用FC-PGA2和PPGA,核心电压也降低到了1.5V左右,主频范围从1GHz到1.4GHz,外频分别为100MHz(赛扬)和133MHz(Pentium III),二级缓存分别为512KB(Pentium III-S)和256KB(Pentium III和赛扬),这是最强的Socket 370核心,其性能甚至超过了早期低频的Pentium 4系列CPU。

Willamette
  这是早期的Pentium 4和P4赛扬采用的核心,最初采用Socket 423接口,后来改用Socket 478接口(赛扬只有1.7GHz和1.8GHz两种,都是Socket 478接口),采用0.18um制造工艺,前端总线频率为400MHz, 主频范围从1.3GHz到2.0GHz(Socket 423)和1.6GHz到2.0GHz(Socket 478),二级缓存分别为256KB(Pentium 4)和128KB(赛扬),注意,另外还有些型号的Socket 423接口的Pentium 4居然没有二级缓存!核心电压1.75V左右,封装方式采用Socket 423的PPGA INT2,PPGA INT3,OOI 423-pin,PPGA FC-PGA2和Socket 478的PPGA FC-PGA2以及赛扬采用的PPGA等等。Willamette核心制造工艺落后,发热量大,性能低下,已经被淘汰掉,而被Northwood核心所取代。

Northwood
  这是目前主流的Pentium 4和赛扬所采用的核心,其与Willamette核心最大的改进是采用了0.13um制造工艺,并都采用Socket 478接口,核心电压1.5V左右,二级缓存分别为128KB(赛扬)和512KB(Pentium 4),前端总线频率分别为400/533/800MHz(赛扬都只有400MHz),主频范围分别为2.0GHz到2.8GHz(赛扬),1.6GHz到2.6GHz(400MHz FSB Pentium 4),2.26GHz到3.06GHz(533MHz FSB Pentium 4)和2.4GHz到3.4GHz(800MHz FSB Pentium 4),并且3.06GHz Pentium 4和所有的800MHz Pentium 4都支持超线程技术(Hyper-Threading Technology),封装方式采用PPGA FC-PGA2和PPGA。按照Intel的规划,Northwood核心会很快被Prescott核心所取代。

Prescott
  这是目前高端的Pentium 4 EE、主流的Pentium 4和低端的Celeron D所采用的核心。Prescott核心与Northwood核心最大的区别是采用了90nm制造工艺,L1 数据缓存从8KB增加到16KB,流水线结构也从20级增加到了31级,并且开始支持SSE3指令集。Prescott核心CPU初期采用Socket 478接口,现在基本上已经全部转到Socket 775接口,核心电压1.25-1.525V。前端总线频率方面,Celeron D全部都是533MHz FSB,而除了Celeron D之外的其它CPU为533MHz(不支持超线程技术)和800MHz(支持超线程技术)以及最高的1066MHz(支持超线程技术)。二级缓存分别为256KB(Celeron D)、1MB(Socket 478接口的pentium 4以及Socket 775接口的Pentium 4 5XX系列)和2MB(Pentium 4 6XX系列以及Pentium 4 EE)。封装方式采用PPGA(Socket 478)和PLGA(Socket 775)。Prescott核心自从推出以来也在不断的完善和发展,先后加入了硬件防病毒技术Execute Disable Bit(EDB)、节能省电技术Enhanced Intel SpeedStep Technology(EIST)、虚拟化技术Intel Virtualization Technology(Intel VT)以及64位技术EM64T等等,二级缓存也从最初的1MB增加到了2MB。按照Intel的规划,Prescott核心会被Cedar Mill核心取代。

Smithfield
    这是Intel公司的第一款双核心处理器的核心类型,基本上可以认为Smithfield核心是简单的将两个Prescott核心松散地耦合在一起的产物,这是基于独立缓存的松散型耦合方案,其优点是技术简单,缺点是性能不够理想,目前Pentium D 8XX系列以及Pentium EE 8XX系列采用此核心。关于Smithfield的详细资料可以查看Intel双核心类型

Cedar Mill
    这是Pentium 4 6X1系列和Celeron D 3X2/3X6系列采用的核心,从2005开始末出现。其与Prescott核心最大的区别是采用了65nm制造工艺,其它方面则变化不大,基本上可以认为是Prescott核心的65nm制程版本。Cedar Mill核心全部采用Socket 775接口,核心电压1.3V左右,封装方式采用PLGA。其中,Pentium 4全部都为800MHz FSB、2MB二级缓存,都支持超线程技术、硬件防病毒技术EDB、节能省电技术EIST以及64位技术EM64T;而Celeron D则是533MHz FSB、512KB二级缓存,支持硬件防病毒技术EDB和64位技术EM64T,不支持超线程技术以及节能省电技术EIST。Cedar Mill核心也是Intel处理器在NetBurst架构上的最后一款单核心处理器的核心类型,按照Intel的规划,Cedar Mill核心将逐渐被Core架构的Conroe核心所取代。

Presler
    这是Pentium D 9XX和Pentium EE 9XX采用的核心,同样是2005年末推出。基本上可以认为Presler核心是简单的将两个Cedar Mill核心松散地耦合在一起的产物,是基于独立缓存的松散型耦合方案,其优点是技术简单,缺点是性能不够理想。

Yonah
    目前采用Yonah核心CPU的有双核心的Core Duo和单核心的Core Solo,另外Celeron M也采用此核心,Yonah是Intel于2006年初推出的。这是一种单/双核心处理器的核心类型,其在应用方面的特点是具有很大的灵活性,既可用于桌面平台,也可用于移动平台;既可用于双核心,也可用于单核心。Yonah核心来源于移动平台上大名鼎鼎的处理器Pentium M的优秀架构,具有流水线级数少、执行效率高、性能强大以及功耗低等等优点。Yonah核心采用65nm制造工艺,接口类型是改良了的新版Socket 478接口(与以前台式机的Socket 478并不兼容)。Yonah核心都支持硬件防病毒技术EDB以及节能省电技术EIST,但其最大的遗憾是不支持64位技术,仅仅只是32位的处理器。值得注意的是,Core Duo的Yonah核心则是采用了两个核心共享2MB的二级缓存。共享式的二级缓存配合Intel的“Smart cache”共享缓存技术,实现了真正意义上的缓存数据同步,大幅度降低了数据延迟,减少了对前端总线的占用。Yonah核心是共享缓存的紧密型耦合方案,其优点是性能理想,缺点是技术比较复杂。
作者: solomonlee    时间: 2007-8-10 13:13
Athlon XP的核心类型
  Athlon XP有4种不同的核心类型,但都有共同之处:都采用Socket A接口而且都采用PR标称值标注。

Palomino
  这是最早的Athlon XP的核心,采用0.18um制造工艺,核心电压为1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz。

Thoroughbred
  这是第一种采用0.13um制造工艺的Athlon XP核心,又分为Thoroughbred-A和Thoroughbred-B两种版本,核心电压1.65V-1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz和333MHz。

Thorton
  采用0.13um制造工艺,核心电压1.65V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为333MHz。可以看作是屏蔽了一半二级缓存的Barton。

Barton
  采用0.13um制造工艺,核心电压1.65V左右,二级缓存为512KB,封装方式采用OPGA,前端总线频率为333MHz和400MHz。

新Duron的核心类型

AppleBred
  采用0.13um制造工艺,核心电压1.5V左右,二级缓存为64KB,封装方式采用OPGA,前端总线频率为266MHz。没有采用PR标称值标注而以实际频率标注,有1.4GHz、1.6GHz和1.8GHz三种。

Athlon 64系列CPU的核心类型

Sledgehammer
    Sledgehammer是AMD服务器CPU的核心,是64位CPU,一般为940接口,0.13微米工艺。Sledgehammer功能强大,集成三条HyperTransprot总线,核心使用12级流水线,128K一级缓存、集成1M二级缓存,可以用于单路到8路CPU服务器。Sledgehammer集成内存控制器,比起传统上位于北桥的内存控制器有更小的延时,支持双通道DDR内存,由于是服务器CPU,当然支持ECC校验。

Clawhammer
  采用0.13um制造工艺,核心电压1.5V左右,二级缓存为1MB,封装方式采用mPGA,采用Hyper Transport总线,内置1个128bit的内存控制器。采用Socket 754、Socket 940和Socket 939接口。

Newcastle
  其与Clawhammer的最主要区别就是二级缓存降为512KB(这也是AMD为了市场需要和加快推广64位CPU而采取的相对低价政策的结果),其它性能基本相同。

Wincheste
    Wincheste是比较新的AMD Athlon 64CPU核心,是64位CPU,一般为939接口,0.09微米制造工艺。这种核心使用200MHz外频,支持1GHyperTransprot总线,512K二级缓存,性价比较好。Wincheste集成双通道内存控制器,支持双通道DDR内存,由于使用新的工艺,Wincheste的发热量比旧的Athlon小,性能也有所提升。

Troy
    Troy是AMD第一个使用90nm制造工艺的Opteron核心。Troy核心是在Sledgehammer基础上增添了多项新技术而来的,通常为940针脚,拥有128K一级缓存和1MB (1,024 KB)二级缓存。同样使用200MHz外频,支持1GHyperTransprot总线,集成了内存控制器,支持双通道DDR400内存,并且可以支持ECC 内存。此外,Troy核心还提供了对SSE-3的支持,和Intel的Xeon相同,总的来说,Troy是一款不错的CPU核心。

Venice
    Venice核心是在Wincheste核心的基础上演变而来,其技术参数和Wincheste基本相同:一样基于X86-64架构、整合双通道内存控制器、512KB L2缓存、90nm制造工艺、200MHz外频,支持1GHyperTransprot总线。Venice的变化主要有三方面:一是使用了Dual Stress Liner (简称DSL)技术,可以将半导体晶体管的响应速度提高24%,这样是CPU有更大的频率空间,更容易超频;二是提供了对SSE-3的支持,和Intel的CPU相同;三是进一步改良了内存控制器,一定程度上增加处理器的性能,更主要的是增加内存控制器对不同DIMM模块和不同配置的兼容性。此外Venice核心还使用了动态电压,不同的CPU可能会有不同的电压。

SanDiego
    SanDiego核心与Venice一样是在Wincheste核心的基础上演变而来,其技术参数和Venice非常接近,Venice拥有的新技术、新功能,SanDiego核心一样拥有。不过AMD公司将SanDiego核心定位到顶级Athlon 64处理器之上,甚至用于服务器CPU。可以将SanDiego看作是Venice核心的高级版本,只不过缓存容量由512KB提升到了1MB。当然由于L2缓存增加,SanDiego核心的内核尺寸也有所增加,从Venice核心的84平方毫米增加到115平方毫米,当然价格也更高昂。

闪龙系列CPU的核心类型

Paris
    Paris核心是Barton核心的继任者,主要用于AMD的闪龙,早期的754接口闪龙部分使用Paris核心。Paris采用90nm制造工艺,支持iSSE2指令集,一般为256K二级缓存,200MHz外频。Paris核心是32位CPU,来源于K8核心,因此也具备了内存控制单元。CPU内建内存控制器的主要优点在于内存控制器可以以CPU频率运行,比起传统上位于北桥的内存控制器有更小的延时。使用Paris核心的闪龙与Socket A接口闪龙CPU相比,性能得到明显提升。

Palermo
    Palermo核心目前主要用于AMD的闪龙CPU,使用Socket 754接口、90nm制造工艺,1.4V左右电压,200MHz外频,128K或者256K二级缓存。Palermo核心源于K8的Wincheste核心,新的E6步进版本已经支持64位。除了拥有与AMD高端处理器相同的内部架构,还具备了EVP、Cool‘n’Quiet;和HyperTransport等AMD独有的技术,为广大用户带来更“冷静”、更高计算能力的优秀处理器。由于脱胎与ATHLON64处理器,所以Palermo同样具备了内存控制单元。CPU内建内存控制器的主要优点在于内存控制器可以以CPU频率运行,比起传统上位于北桥的内存控制器有更小的延时。

Athlon 64 X2系列双核心CPU的核心类型

    Athlon 64 X2系列双核心CPU的核心类型主要有Manchester和Toledo,两者十分相似,差别仅在于二级缓存。
作者: solomonlee    时间: 2007-8-10 13:13
CPU主频

主频也叫时钟频率,单位是MHz,用来表示CPU的运算速度。CPU的工作频率(主频)包括两部分:外频与倍频,两者的乘积就是主频。倍频的全称为倍频系数。CPU的主频与外频之间存在着一个比值关系,这个比值就是倍频系数,简称倍频。倍频可以从1.5一直到23以至更高,以0.5为一个间隔单位。外频与倍频相乘就是主频,所以其中任何一项提高都可以使CPU的主频上升。由于主频并不直接代表运算速度,所以在一定情况下,很可能会出现主频较高的CPU实际运算速度较低的现象。因此主频仅仅是CPU性能表现的一个方面,而不代表CPU的整体性能。
作者: solomonlee    时间: 2007-8-10 13:13
处理器缓存

缓存是指可以进行高速数据交换的存储器,它先于内存与CPU交换数据,因此速度很快。L1 Cache(一级缓存)是CPU第一层高速缓存。内置的L1高速缓存的容量和结构对CPU的性能影响较大,不过高速缓冲存储器均由静态RAM组成,结构较复杂,在CPU管芯面积不能太大的情况下,L1级高速缓存的容量不可能做得太大。一般L1缓存的容量通常在20~256KB。L2 Cache(二级缓存)是CPU的第二层高速缓存,分内部和外部两种芯片。早期内部的芯片二级缓存运行速度与主频相同,而外部的二级缓存则只有主频的一半,现在的主流产品中二级缓存已经都是全速的。L2高速缓存容量直接影响CPU的性能,原则是越大越好,现在主流CPU的L2高速缓存最大的是2048KB,如Pentium 6XXCPU。
作者: solomonlee    时间: 2007-8-10 13:14
处理器运算位数

CPU的位宽对CPU性能的影响绝不亚于主频。位宽是指微处理器一次执行指令的数据带宽。处理器的寻址位宽增长很快,业界已使用过4、8、16位寻址再到目前主流的32位,而64位寻址浮点运算已经逐步成为CPU的主流产品。
    受虚拟和实际内存尺寸的限制,目前主流的32位CPU在性能执行模式方面存在一个严重的缺陷:当面临大量的数据流时,32位的寄存器(注:为了处理数据,暂时储存结果,或者做间接寻址等等动作,每个处理器都具备一些内建的内存,这些能够在不延迟的状态下存取的内存就称为“寄存器”,每个寄存器的大小都相同)和指令集不能及时进行相应的处理运算。
    32位CPU一次只能处理32位,也就是4个字节的数据;而64位CPU一次就能处理64位即8个字节的数据。如果我们将总长128位的指令分别按照16位、32位、64位为单位进行编辑的话:旧的16位CPU(如Intel 80286 CPU)需要8个指令,32位的CPU需要4个指令,而64位CPU则只要两个指令。显然,在工作频率相同的情况下,64位CPU的处理速度比16位、32位的更快。
    64位的代码流的数量没有改变,其宽度随着指令代码的宽度而变化;而数据流的宽度则增加了一倍。虽然理论上在一个时钟周期内64位系统处理的数据量是32位系统的两倍,但理论和现实通常都是有差距的。
 要注意的是,CPU不只需要位宽够宽的寄存器,也需要足够数量的寄存器,以确保大量数据处理。因此为了容纳更多的数据,寄存器和内部数据通道也必须加倍,因此在64位CPU中的寄存器位数一般是32位CPU中的两倍。
 不过,虽然寄存器位数增加了,但正在执行指令的指令寄存器却都是一样的,即数据流加倍而指令流不变。此外,增加数据位数还可以扩大动态范围。在通常使用的十进制中,只能得到最多10个整数(一位数情况下),这是因为0~9中只有10个不同的符号来表示相应的意思,想要表示10以上的数就需要增加一位数,两位数(00-99)才可以表示100个数。
 可以得出十进制的动态范围的计算公式:DR=10n (n表示数字位数)。在二进制体系中,相应的我们可以得到公式:DR=2n,那么目前使用的32位就可以达到232=4.3×109,升级到64位之后,就可以达到264=1.8×1019。动态范围扩大了43亿倍。
    提示:扩大动态范围可以在一定程度上提高寄存器中数据的准确性。比如,当使用32位系统处理气象模拟运算任务时,当处理的数据超过32位所能提供的最大动态范围时,系统就会出现诸如Overflow(超过了最大正整数)或Underflow(低于最小的负整数)的错误提示,这样寄存器中的数据就无法保证准确。
 除了运算能力之外,与32位CPU相比,64位CPU的优势还体现在系统对内存的控制上。由于地址使用的是特殊的整数,而64位CPU的一个ALU(算术逻辑运算器)和寄存器可以处理更大的整数,也就是更大的地址。
 传统32位CPU的寻址空间最大为4GB,使得很多需要大容量内存的大规模的数据处理程序在这时都会显得捉襟见肘,形成了运行效率的瓶颈。而64位的处理器在理论上则可以达到1800万个TB(1TB=1024GB),将能够彻底解决32位计算系统所遇到的瓶颈现象。
 当然64位寻址空间也有一定的缺点:内存地址值随着位数的增加而变为原来的两倍,这样内存地址将在缓存中占用更多的空间,其他有用的数据就无法载入缓存,从而引起了整体性能一定程度的下降。
作者: solomonlee    时间: 2007-8-10 13:14
前端总线频率

总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。

    北桥芯片负责联系内存、显卡等数据吞吐量最大的部件,并和南桥芯片连接。CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,最高到1066MHz。前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。

    外频与前端总线频率的区别:前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目的。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来,目前的主流产品均采用这些技术。
作者: solomonlee    时间: 2007-8-10 13:15
芯片组

芯片组(Chipset)是主板的核心组成部分,如果说中央处理器(CPU)是整个电脑系统的心脏,那么芯片组将是整个身体的躯干。在电脑界称设计芯片组的厂家为Core Logic,Core的中文意义是核心或中心,光从字面的意义就足以看出其重要性。对于主板而言,芯片组几乎决定了这块主板的功能,进而影响到整个电脑系统性能的发挥,芯片组是主板的灵魂。芯片组性能的优劣,决定了主板性能的好坏与级别的高低。这是因为目前CPU的型号与种类繁多、功能特点不一,如果芯片组不能与CPU良好地协同工作,将严重地影响计算机的整体性能甚至不能正常工作。

    主板芯片组几乎决定着主板的全部功能,其中CPU的类型、主板的系统总线频率,内存类型、容量和性能,显卡插槽规格是由芯片组中的北桥芯片决定的;而扩展槽的种类与数量、扩展接口的类型和数量(如USB2.0/1.1,IEEE1394,串口,并口,笔记本的VGA输出接口)等,是由芯片组的南桥决定的。还有些芯片组由于纳入了3D加速显示(集成显示芯片)、AC'97声音解码等功能,还决定着计算机系统的显示性能和音频播放性能等。

    台式机芯片组要求有强大的性能,良好的兼容性,互换性和扩展性,对性价比要求也最高,并适度考虑用户在一定时间内的可升级性,扩展能力在三者中最高。在最早期的笔记本设计中并没有单独的笔记本芯片组,均采用与台式机相同的芯片组,随着技术的发展,笔记本专用CPU的出现,就有了与之配套的笔记本专用芯片组。笔记本芯片组要求较低的能耗,良好的稳定性,但综合性能和扩展能力在三者中却也是最低的。服务器/工作站芯片组的综合性能和稳定性在三者中最高,部分产品甚至要求全年满负荷工作,在支持的内存容量方面也是三者中最高,能支持高达十几GB甚至几十GB的内存容量,而且其对数据传输速度和数据安全性要求最高,所以其存储设备也多采用SCSI接口而非IDE接口,而且多采用RAID方式提高性能和保证数据的安全性。

    到目前为止,能够生产芯片组的厂家有英特尔(美国)、VIA(中国台湾)、SiS(中国台湾)、ULI(中国台湾)、AMD(美国)、NVIDIA(美国)、ATI(加拿大)、ServerWorks(美国)、IBM(美国)、HP(美国)等为数不多的几家,其中以英特尔和NVIDIA以及VIA的芯片组最为常见。在台式机的英特尔平台上,英特尔自家的芯片组占有最大的市场份额,而且产品线齐全,高、中、低端以及整合型产品都有,其它的芯片组厂商VIA、SIS、ULI以及最新加入的ATI和NVIDIA几家加起来都只能占有比较小的市场份额,除NVIDIA之外的其它厂家主要是在中低端和整合领域,NVIDIA则只具有中、高端产品,缺乏低端产品,产品线都不完整。在AMD平台上,AMD自身通常是扮演一个开路先锋的角色,产品少,市场份额也很小,而VIA以前却占有AMD平台芯片组最大的市场份额,但现在却受到后起之秀NVIDIA的强劲挑战,后者凭借其nForce2、nForce3以及现在的nForce4系列芯片组的强大性能,成为AMD平台最优秀的芯片组产品,进而从VIA手里夺得了许多市场份额,目前已经成为AMD平台上市场占用率最大的芯片组厂商,而SIS与ULI依旧是扮演配角,主要也是在中、低端和整合领域。笔记本方面,英特尔平台具有绝对的优势,所以英特尔自家的笔记本芯片组也占据了最大的市场分额,其它厂家都只能扮演配角以及为市场份额极小的AMD平台设计产品。服务器/工作站方面,英特尔平台更是绝对的优势地位,英特尔自家的服务器/工作站芯片组产品占据着绝大多数的市场份额,但在基于英特尔架构的高端多路服务器领域方面,IBM和HP却具有绝对的优势,例如IBM的XA32以及HP的F8都是非常优秀的高端多路服务器芯片组产品,只不过都是只应用在本公司的服务器产品上而名声不是太大罢了;而AMD服务器/工作站平台由于市场份额较小,以前主要都是采用AMD自家的芯片组产品,现在也有部分开始采用NVIDIA的产品。值得注意的是,曾经在基于英特尔架构的服务器/工作站芯片组领域风光无限的ServerWorks在被Broadcom收购之后已经彻底退出了芯片组市场;而ULI也已经被NVIDIA收购,也极有可能退出芯片组市场。

    芯片组的技术这几年来也是突飞猛进,从ISA、PCI、AGP到PCI-Express,从ATA到SATA,Ultra DMA技术,双通道内存技术,高速前端总线等等 ,每一次新技术的进步都带来电脑性能的提高。2004年,芯片组技术又会面临重大变革,最引人注目的就是PCI Express总线技术,它将取代PCI和AGP,极大的提高设备带宽,从而带来一场电脑技术的革命。另一方面,芯片组技术也在向着高整合性方向发展,例如AMD Athlon 64 CPU内部已经整合了内存控制器,这大大降低了芯片组厂家设计产品的难度,而且现在的芯片组产品已经整合了音频,网络,SATA,RAID等功能,大大降低了用户的成本。
作者: solomonlee    时间: 2007-8-10 13:15
内存


FPM是Fast Page Mode(快页模式)的简称,是较早的PC机普遍使用的内存,它每隔3个时钟脉冲周期传送一次数据。现在早就被淘汰掉了。

EDO是Extended Data Out(扩展数据输出)的简称,它取消了主板与内存两个存储周期之间的时间间隔,每隔2个时钟脉冲周期传输一次数据,大大地缩短了存取时间,使存取速度提高30%,达到60ns。EDO内存主要用于72线的SIMM内存条,以及采用EDO内存芯片的PCI显示卡。这种内存流行在486以及早期的奔腾计算机系统中,它有72线和168线之分,采用5V工作电压,带宽32 bit,必须两条或四条成对使用,可用于英特尔430FX/430VX甚至430TX芯片组主板上。目前也已经被淘汰,只能在某些老爷机上见到。  
  
SDRAM是Synchronous Dynamic Random Access Memory(同步动态随机存储器)的简称,是前几年普遍使用的内存形式。SDRAM采用3.3v工作电压,带宽64位,SDRAM将CPU与RAM通过一个相同的时钟锁在一起,使RAM和CPU能够共享一个时钟周期,以相同的速度同步工作,与 EDO内存相比速度能提高50%。SDRAM基于双存储体结构,内含两个交错的存储阵列,当CPU从一个存储体或阵列访问数据时,另一个就已为读写数据做好了准备,通过这两个存储阵列的紧密切换,读取效率就能得到成倍的提高。SDRAM不仅可用作主存,在显示卡上的显存方面也有广泛应用。SDRAM曾经是长时间使用的主流内存,从430TX芯片组到845芯片组都支持SDRAM。但随着DDR SDRAM的普及,SDRAM也正在慢慢退出主流市场。

RDRAM是Rambus Dynamic Random Access Memory(存储器总线式动态随机存储器)的简称,是Rambus公司开发的具有系统带宽、芯片到芯片接口设计的内存,它能在很高的频率范围下通过一个简单的总线传输数据,同时使用低电压信号,在高速同步时钟脉冲的两边沿传输数据。最开始支持RDRAM的是英特尔820芯片组,后来又有840,850芯片组等等。RDRAM最初得到了英特尔的大力支持,但由于其高昂的价格以及Rambus公司的专利许可限制,一直未能成为市场主流,其地位被相对廉价而性能同样出色的DDR SDRAM迅速取代,市场份额很小。  
  
DDR SDRAM是Double Data Rate Synchronous Dynamic Random Access Memory(双数据率同步动态随机存储器)的简称,是由VIA等公司为了与RDRAM相抗衡而提出的内存标准。DDR SDRAM是SDRAM的更新换代产品,采用2.5v工作电压,它允许在时钟脉冲的上升沿和下降沿传输数据,这样不需要提高时钟的频率就能加倍提高SDRAM的速度,并具有比SDRAM多一倍的传输速率和内存带宽,例如DDR 266与PC 133 SDRAM相比,工作频率同样是133MHz,但内存带宽达到了2.12 GB/s,比PC 133 SDRAM高一倍。目前主流的芯片组都支持DDR SDRAM,是目前最常用的内存类型。
作者: solomonlee    时间: 2007-8-10 13:16
DDR2(Double Data Rate 2) SDRAM是由JEDEC(电子设备工程联合委员会)进行开发的新生代内存技术标准,它与上一代DDR内存技术标准最大的不同就是,虽然同是采用了在时钟的上升/下降延同时进行数据传输的基本方式,但DDR2内存却拥有两倍于上一代DDR内存预读取能力(即:4bit数据读预取)。换句话说,DDR2内存每个时钟能够以4倍外部总线的速度读/写数据,并且能够以内部控制总线4倍的速度运行。

DDR2内存的频率

    此外,由于DDR2标准规定所有DDR2内存均采用FBGA封装形式,而不同于目前广泛应用的TSOP/TSOP-II封装形式,FBGA封装可以提供了更为良好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了坚实的基础。回想起DDR的发展历程,从第一代应用到个人电脑的DDR200经过DDR266、DDR333到今天的双通道DDR400技术,第一代DDR的发展也走到了技术的极限,已经很难通过常规办法提高内存的工作速度;随着Intel最新处理器技术的发展,前端总线对内存带宽的要求是越来越高,拥有更高更稳定运行频率的DDR2内存将是大势所趋。

DDR2与DDR的区别:

    在了解DDR2内存诸多新技术前,先让我们看一组DDR和DDR2技术对比的数据。

1、延迟问题:

    从上表可以看出,在同等核心频率下,DDR2的实际工作频率是DDR的两倍。这得益于DDR2内存拥有两倍于标准DDR内存的4BIT预读取能力。换句话说,虽然DDR2和DDR一样,都采用了在时钟的上升延和下降延同时进行数据传输的基本方式,但DDR2拥有两倍于DDR的预读取系统命令数据的能力。也就是说,在同样100MHz的工作频率下,DDR的实际频率为200MHz,而DDR2则可以达到400MHz。

    这样也就出现了另一个问题:在同等工作频率的DDR和DDR2内存中,后者的内存延时要慢于前者。举例来说,DDR 200和DDR2-400具有相同的延迟,而后者具有高一倍的带宽。实际上,DDR2-400和DDR 400具有相同的带宽,它们都是3.2GB/s,但是DDR400的核心工作频率是200MHz,而DDR2-400的核心工作频率是100MHz,也就是说DDR2-400的延迟要高于DDR400。

2、封装和发热量:

    DDR2内存技术最大的突破点其实不在于用户们所认为的两倍于DDR的传输能力,而是在采用更低发热量、更低功耗的情况下,DDR2可以获得更快的频率提升,突破标准DDR的400MHZ限制。

    DDR内存通常采用TSOP芯片封装形式,这种封装形式可以很好的工作在200MHz上,当频率更高时,它过长的管脚就会产生很高的阻抗和寄生电容,这会影响它的稳定性和频率提升的难度。这也就是DDR的核心频率很难突破275MHZ的原因。而DDR2内存均采用FBGA封装形式。不同于目前广泛应用的TSOP封装形式,FBGA封装提供了更好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了良好的保障。

    DDR2内存采用1.8V电压,相对于DDR标准的2.5V,降低了不少,从而提供了明显的更小的功耗与更小的发热量,这一点的变化是意义重大的。

DDR2采用的新技术:

    除了以上所说的区别外,DDR2还引入了三项新的技术,它们是OCD、ODT和Post CAS。

    OCD(Off-Chip Driver):也就是所谓的离线驱动调整,DDR II通过OCD可以提高信号的完整性。DDR II通过调整上拉(pull-up)/下拉(pull-down)的电阻值使两者电压相等。使用OCD通过减少DQ-DQS的倾斜来提高信号的完整性;通过控制电压来提高信号品质。

    ODT:ODT是内建核心的终结电阻器。我们知道使用DDR SDRAM的主板上面为了防止数据线终端反射信号需要大量的终结电阻。它大大增加了主板的制造成本。实际上,不同的内存模组对终结电路的要求是不一样的,终结电阻的大小决定了数据线的信号比和反射率,终结电阻小则数据线信号反射低但是信噪比也较低;终结电阻高,则数据线的信噪比高,但是信号反射也会增加。因此主板上的终结电阻并不能非常好的匹配内存模组,还会在一定程度上影响信号品质。DDR2可以根据自已的特点内建合适的终结电阻,这样可以保证最佳的信号波形。使用DDR2不但可以降低主板成本,还得到了最佳的信号品质,这是DDR不能比拟的。

    Post CAS:它是为了提高DDR II内存的利用效率而设定的。在Post CAS操作中,CAS信号(读写/命令)能够被插到RAS信号后面的一个时钟周期,CAS命令可以在附加延迟(Additive Latency)后面保持有效。原来的tRCD(RAS到CAS和延迟)被AL(Additive Latency)所取代,AL可以在0,1,2,3,4中进行设置。由于CAS信号放在了RAS信号后面一个时钟周期,因此ACT和CAS信号永远也不会产生碰撞冲突。

    总的来说,DDR2采用了诸多的新技术,改善了DDR的诸多不足,虽然它目前有成本高、延迟慢能诸多不足,但相信随着技术的不断提高和完善,这些问题终将得到解决。
作者: solomonlee    时间: 2007-8-10 13:16
颗粒封装

      颗粒封装其实就是内存芯片所采用的封装技术类型,封装就是将内存芯片包裹起来,以避免芯片与外界接触,防止外界对芯片的损害。空气中的杂质和不良气体,乃至水蒸气都会腐蚀芯片上的精密电路,进而造成电学性能下降。不同的封装技术在制造工序和工艺方面差异很大,封装后对内存芯片自身性能的发挥也起到至关重要的作用。

  随着光电、微电制造工艺技术的飞速发展,电子产品始终在朝着更小、更轻、更便宜的方向发展,因此芯片元件的封装形式也不断得到改进。芯片的封装技术多种多样,有DIP、POFP、TSOP、BGA、QFP、CSP等等,种类不下三十种,经历了从DIP、TSOP到BGA的发展历程。芯片的封装技术已经历了几代的变革,性能日益先进,芯片面积与封装面积之比越来越接近,适用频率越来越高,耐温性能越来越好,以及引脚数增多,引脚间距减小,重量减小,可靠性提高,使用更加方便。
作者: solomonlee    时间: 2007-8-10 13:17
DIP封装方式

上个世纪的70年代,芯片封装基本都采用DIP(Dual ln-line Package,双列直插式封装)封装,此封装形式在当时具有适合PCB(印刷电路板)穿孔安装,布线和操作较为方便等特点。DIP封装的结构形式多种多样,包括多层陶瓷双列直插式DIP,单层陶瓷双列直插式DIP,引线框架式DIP等。但DIP封装形式封装效率是很低的,其芯片面积和封装面积之比为1:1.86,这样封装产品的面积较大,内存条PCB板的面积是固定的,封装面积越大在内存上安装芯片的数量就越少,内存条容量也就越小。同时较大的封装面积对内存频率、传输速率、电器性能的提升都有影响。理想状态下芯片面积和封装面积之比为1:1将是最好的,但这是无法实现的,除非不进行封装,但随着封装技术的发展,这个比值日益接近,现在已经有了1:1.14的内存封装技术。
作者: solomonlee    时间: 2007-8-10 13:17
TSOP封装方式

到了上个世纪80年代,内存第二代的封装技术TSOP出现,得到了业界广泛的认可,时至今日仍旧是内存封装的主流技术。TSOP是“Thin Small Outline Package”的缩写,意思是薄型小尺寸封装。TSOP内存是在芯片的周围做出引脚,采用SMT技术(表面安装技术)直接附着在PCB板的表面。TSOP封装外形尺寸时,寄生参数(电流大幅度变化时,引起输出电压扰动) 减小,适合高频应用,操作比较方便,可靠性也比较高。同时TSOP封装具有成品率高,价格便宜等优点,因此得到了极为广泛的应用。

  TSOP封装方式中,内存芯片是通过芯片引脚焊接在PCB板上的,焊点和PCB板的接触面积较小,使得芯片向PCB办传热就相对困难。而且TSOP封装方式的内存在超过150MHz后,会产品较大的信号干扰和电磁干扰。
作者: solomonlee    时间: 2007-8-10 13:17
BGA封装方式

20世纪90年代随着技术的进步,芯片集成度不断提高,I/O引脚数急剧增加,功耗也随之增大,对集成电路封装的要求也更加严格。为了满足发展的需要,BGA封装开始被应用于生产。BGA是英文Ball Grid Array Package的缩写,即球栅阵列封装。

  采用BGA技术封装的内存,可以使内存在体积不变的情况下内存容量提高两到三倍,BGA与TSOP相比,具有更小的体积,更好的散热性能和电性能。BGA封装技术使每平方英寸的存储量有了很大提升,采用BGA封装技术的内存产品在相同容量下,体积只有TSOP封装的三分之一;另外,与传统TSOP封装方式相比,BGA封装方式有更加快速和有效的散热途径。

  BGA封装的I/O端子以圆形或柱状焊点按阵列形式分布在封装下面,BGA技术的优点是I/O引脚数虽然增加了,但引脚间距并没有减小反而增加了,从而提高了组装成品率;虽然它的功耗增加,但BGA能用可控塌陷芯片法焊接,从而可以改善它的电热性能;厚度和重量都较以前的封装技术有所减少;寄生参数减小,信号传输延迟小,使用频率大大提高;组装可用共面焊接,可靠性高。

  说到BGA封装就不能不提Kingmax公司的专利TinyBGA技术,TinyBGA英文全称为Tiny Ball Grid Array(小型球栅阵列封装),属于是BGA封装技术的一个分支。是Kingmax公司于1998年8月开发成功的,其芯片面积与封装面积之比不小于1:1.14,可以使内存在体积不变的情况下内存容量提高2~3倍,与TSOP封装产品相比,其具有更小的体积、更好的散热性能和电性能。

  采用TinyBGA封装技术的内存产品在相同容量情况下体积只有TSOP封装的1/3。TSOP封装内存的引脚是由芯片四周引出的,而TinyBGA则是由芯片中心方向引出。这种方式有效地缩短了信号的传导距离,信号传输线的长度仅是传统的TSOP技术的1/4,因此信号的衰减也随之减少。这样不仅大幅提升了芯片的抗干扰、抗噪性能,而且提高了电性能。采用TinyBGA封装芯片可抗高达300MHz的外频,而采用传统TSOP封装技术最高只可抗150MHz的外频。

  TinyBGA封装的内存其厚度也更薄(封装高度小于0.8mm),从金属基板到散热体的有效散热路径仅有0.36mm。因此,TinyBGA内存拥有更高的热传导效率,非常适用于长时间运行的系统,稳定性极佳。
作者: solomonlee    时间: 2007-8-10 13:18
CSP封装方式

CSP(Chip Scale Package),是芯片级封装的意思。CSP封装最新一代的内存芯片封装技术,其技术性能又有了新的提升。CSP封装可以让芯片面积与封装面积之比超过1:1.14,已经相当接近1:1的理想情况,绝对尺寸也仅有32平方毫米,约为普通的BGA的1/3,仅仅相当于TSOP内存芯片面积的1/6。与BGA封装相比,同等空间下CSP封装可以将存储容量提高三倍。

  CSP封装内存不但体积小,同时也更薄,其金属基板到散热体的最有效散热路径仅有0.2毫米,大大提高了内存芯片在长时间运行后的可靠性,线路阻抗显著减小,芯片速度也随之得到大幅度提高。

  CSP封装内存芯片的中心引脚形式有效地缩短了信号的传导距离,其衰减随之减少,芯片的抗干扰、抗噪性能也能得到大幅提升,这也使得CSP的存取时间比BGA改善15%-20%。在CSP的封装方式中,内存颗粒是通过一个个锡球焊接在PCB板上,由于焊点和PCB板的接触面积较大,所以内存芯片在运行中所产生的热量可以很容易地传导到PCB板上并散发出去。CSP封装可以从背面散热,且热效率良好,CSP的热阻为35℃/W,而TSOP热阻40℃/W。
作者: solomonlee    时间: 2007-8-10 13:18
内存电压

内存正常工作所需要的电压值,不同类型的内存电压也不同,但各自均有自己的规格,超出其规格,容易造成内存损坏。SDRAM内存一般工作电压都在3.3伏左右,上下浮动额度不超过0.3伏;DDR SDRAM内存一般工作电压都在2.5伏左右,上下浮动额度不超过0.2伏;而DDR2 SDRAM内存的工作电压一般在1.8V左右。具体到每种品牌、每种型号的内存,则要看厂家了,但都会遵循SDRAM内存3.3伏、DDR SDRAM内存2.5伏、DDR2 SDRAM内存1.8伏的基本要求,在允许的范围内浮动。略微提高内存电压,有利于内存超频,但是同时发热量大大增加,因此有损坏硬件的风险。
作者: solomonlee    时间: 2007-8-10 13:19
ECC校检

ECC内存即纠错内存,简单的说,其具有发现错误,纠正错误的功能,一般多应用在高档台式电脑/服务器及图形工作站上,这将使整个电脑系统在工作时更趋于安全稳定。

  内存是一种电子器件,在其工作过程中难免会出现错误,而对于稳定性要求高的用户来说,内存错误可能会引起致命性的问题。内存错误根据其原因还可分为硬错误和软错误。硬件错误是由于硬件的损害或缺陷造成的,因此数据总是不正确,此类错误是无法纠正的;软错误是随机出现的,例如在内存附近突然出现电子干扰等因素都可能造成内存软错误的发生。

  为了能检测和纠正内存软错误,首先出现的是内存“奇偶校验”。内存中最小的单位是比特,也称为“位”,位有只有两种状态分别以1和0来标示,每8个连续的比特叫做一个字节(byte)。不带奇偶校验的内存每个字节只有8位,如果其某一位存储了错误的值,就会导致其存储的相应数据发生变化,进而导致应用程序发生错误。而奇偶校验就是在每一字节(8位)之外又增加了一位作为错误检测位。在某字节中存储数据之后,在其8个位上存储的数据是固定的,因为位只能有两种状态1或0,假设存储的数据用位标示为1、1、1、0、0、1、0、1,那么把每个位相加(1+1+1+0+0+1+0+1=5),结果是奇数。对于偶校验,校验位就定义为1,反之则为0;对于奇校验,则相反。当CPU读取存储的数据时,它会再次把前8位中存储的数据相加,计算结果是否与校验位相一致。从而一定程度上能检测出内存错误,奇偶校验只能检测出错误而无法对其进行修正,同时虽然双位同时发生错误的概率相当低,但奇偶校验却无法检测出双位错误。

  ECC(Error Checking and Correcting,错误检查和纠正)内存,它同样也是在数据位上额外的位存储一个用数据加密的代码。当数据被写入内存,相应的ECC代码与此同时也被保存下来。当重新读回刚才存储的数据时,保存下来的ECC代码就会和读数据时产生的ECC代码做比较。如果两个代码不相同,他们则会被解码,以确定数据中的那一位是不正确的。然后这一错误位会被抛弃,内存控制器则会释放出正确的数据。被纠正的数据很少会被放回内存。假如相同的错误数据再次被读出,则纠正过程再次被执行。重写数据会增加处理过程的开销,这样则会导致系统性能的明显降低。如果是随机事件而非内存的缺点产生的错误,则这一内存地址的错误数据会被再次写入的其他数据所取代。

  使用ECC校验的内存,会对系统的性能造成不小的影响,不过这种纠错对服务器等应用而言是十分重要的,并且由于带ECC校验的内存价格比普通内存要昂贵许多,因此带有ECC校验功能的内存绝大多数都是服务器内存。
作者: solomonlee    时间: 2007-8-10 13:19
CL设置

内存负责向CPU提供运算所需的原始数据,而目前CPU运行速度超过内存数据传输速度很多,因此很多情况下CPU都需要等待内存提供数据,这就是常说的“CPU等待时间”。内存传输速度越慢,CPU等待时间就会越长,系统整体性能受到的影响就越大。因此,快速的内存是有效提升CPU效率和整机性能的关键之一。

  在实际工作时,无论什么类型的内存,在数据被传输之前,传送方必须花费一定时间去等待传输请求的响应,通俗点说就是传输前传输双方必须要进行必要的通信,而这种就会造成传输的一定延迟时间。CL设置一定程度上反映出了该内存在CPU接到读取内存数据的指令后,到正式开始读取数据所需的等待时间。不难看出同频率的内存,CL设置低的更具有速度优势。

  上面只是给大家建立一个基本的CL概念,而实际上内存延迟的基本因素绝对不止这些。内存延迟时间有个专门的术语叫“Latency”。要形象的了解延迟,我们不妨把内存当成一个存储着数据的数组,或者一个EXCEL表格,要确定每个数据的位置,每个数据都是以行和列编排序号来标示,在确定了行、列序号之后该数据就唯一了。内存工作时,在要读取或写入某数据,内存控制芯片会先把数据的列地址传送过去,这个RAS信号(Row Address Strobe,行地址信号)就被激活,而在转化到行数据前,需要经过几个执行周期,然后接下来CAS信号(Column Address Strobe,列地址信号)被激活。在RAS信号和CAS信号之间的几个执行周期就是RAS-to-CAS延迟时间。在CAS信号被执行之后同样也需要几个执行周期。此执行周期在使用标准PC133的SDRAM大约是2到3个周期;而DDR RAM则是4到5个周期。在DDR中,真正的CAS延迟时间则是2到2.5个执行周期。RAS-to-CAS的时间则视技术而定,大约是5到7个周期,这也是延迟的基本因素。

  CL设置较低的内存具备更高的优势,这可以从总的延迟时间来表现。内存总的延迟时间有一个计算公式,总延迟时间=系统时钟周期×CL模式数+存取时间(tAC)。首先来了解一下存取时间(tAC)的概念,tAC是Access Time from CLK的缩写,是指最大CAS延迟时的最大数输入时钟,是以纳秒为单位的,与内存时钟周期是完全不同的概念,虽然都是以纳秒为单位。存取时间(tAC)代表着读取、写入的时间,而时钟频率则代表内存的速度。

  举个例子来计算一下总延迟时间,比如一条DDR333内存其存取时间为6ns,其内存时钟周期为6ns(DDR内存时钟周期=1X2/内存频率,DDR333内存频率为333,则可计算出其时钟周期为6ns)。我们在主板的BIOS中将其CL设置为2.5,则总的延迟时间=6ns X2.5+6ns=21ns,而如果CL设置为2,那么总的延迟时间=6ns X2+6ns=18 ns,就减少了3ns的时间。

  从总的延迟时间来看,CL值的大小起到了很关键的作用。所以对系统要求高和喜欢超频的用户通常喜欢购买CL值较低的内存。目前各内存颗粒厂商除了从提高内存时钟频率来提高DDR的性能之外,已经考虑通过更进一步的降低CAS延迟时间来提高内存性能。不同类型内存的典型CL值并不相同,例如目前典型DDR的CL值为2.5或者2,而大部分DDR2 533的延迟参数都是4或者5,少量高端DDR2的CL值可以达到3。

  不过,并不是说CL值越低性能就越好,因为其它的因素会影响这个数据。例如,新一代处理器的高速缓存较有效率,这表示处理器比较少地直接从内存读取数据。再者,列的数据会比较常被存取,所以RAS-to-CAS的发生几率也大,读取的时间也会增多。最后,有时会发生同时读取大量数据的情形,在这种情形下,相邻的内存数据会一次被读取出来,CAS延迟时间只会发生一次。

  选择购买内存时,最好选择同样CL设置的内存,因为不同速度的内存混插在系统内,系统会以较慢的速度来运行,也就是当CL2.5和CL2的内存同时插在主机内,系统会自动让两条内存都工作在CL2.5状态,造成资源浪费。
作者: solomonlee    时间: 2007-8-10 13:20
内存容量

内存容量是指该内存条的存储容量,是内存条的关键性参数。内存容量以MB作为单位,可以简写为M。内存的容量一般都是2的整次方倍,比如64MB、128MB、256MB等,一般而言,内存容量越大越有利于系统的运行。目前台式机中主流采用的内存容量为256MB或512MB,64MB、128MB的内存已较少采用。

      系统对内存的识别是以Byte(字节)为单位,每个字节由8位二进制数组成,即8bit(比特,也称“位”)。按照计算机的二进制方式,1Byte=8bit;1KB=1024Byte;1MB=1024KB;1GB=1024MB;1TB=1024GB。

    系统中内存的数量等于插在主板内存插槽上所有内存条容量的总和,内存容量的上限一般由主板芯片组和内存插槽决定。不同主板芯片组可以支持的容量不同,比如Inlel的810和815系列芯片组最高支持512MB内存,多余的部分无法识别。目前多数芯片组可以支持到2GB以上的内存,主流的可以支持到4GB,更高的可以到16GB。此外主板内存插槽的数量也会对内存容量造成限制,比如使用128MB一条的内存,主板由两个内存插槽,最高可以使用256MB内存。因此在选择内存时要考虑主板内存插槽数量,并且可能需要考虑将来有升级的余地。
作者: solomonlee    时间: 2007-8-10 13:21
接口类型

  接口类型是根据内存条金手指上导电触片的数量来划分的,金手指上的导电触片也习惯称为针脚数(Pin)。因为不同的内存采用的接口类型各不相同,而每种接口类型所采用的针脚数各不相同。笔记本内存一般采用144Pin、200Pin接口;台式机内存则基本使用168Pin和184Pin接口。对应于内存所采用的不同的针脚数,内存插槽类型也各不相同。目前台式机系统主要有SIMM、DIMM和RIMM三种类型的内存插槽,而笔记本内存插槽则是在SIMM和DIMM插槽基础上发展而来,基本原理并没有变化,只是在针脚数上略有改变。

金手指
  金手指(connecting finger)是内存条上与内存插槽之间的连接部件,所有的信号都是通过金手指进行传送的。金手指由众多金黄色的导电触片组成,因其表面镀金而且导电触片排列如手指状,所以称为“金手指”。金手指实际上是在覆铜板上通过特殊工艺再覆上一层金,因为金的抗氧化性极强,而且传导性也很强。不过因为金昂贵的价格,目前较多的内存都采用镀锡来代替,从上个世纪90年代开始锡材料就开始普及,目前主板、内存和显卡等设备的“金手指”几乎都是采用的锡材料,只有部分高性能服务器/工作站的配件接触点才会继续采用镀金的做法,价格自然不菲。



内存金手指



  内存处理单元的所有数据流、电子流正是通过金手指与内存插槽的接触与PC系统进行交换,是内存的输出输入端口,因此其制作工艺对于内存连接显得相当重要。

内存插槽
  最初的计算机系统通过单独的芯片安装内存,那时内存芯片都采用DIP(Dual ln-line Package,双列直插式封装)封装,DIP芯片是通过安装在插在总线插槽里的内存卡与系统连接,此时还没有正式的内存插槽。DIP芯片有个最大的问题就在于安装起来很麻烦,而且随着时间的增加,由于系统温度的反复变化,它会逐渐从插槽里偏移出来。随着每日频繁的计算机启动和关闭,芯片不断被加热和冷却,慢慢地芯片会偏离出插槽。最终导致接触不好,产生内存错误。

  早期还有另外一种方法是把内存芯片直接焊接在主板或扩展卡里,这样有效避免了DIP芯片偏离的问题,但无法再对内存容量进行扩展,而且如果一个芯片发生损坏,整个系统都将不能使用,只能重新焊接一个芯片或更换包含坏芯片的主板,此种方法付出的代价较大,也极为不方便。

  对于内存存储器,大多数现代的系统都已采用单列直插内存模块(Single Inline Memory Module,SIMM)或双列直插内存模块(Dual Inline Memory Module,DIMM)来替代单个内存芯片。早期的EDO和SDRAM内存,使用过SIMM和DIMM两种插槽,但从SDRAM开始,就以DIMM插槽为主,而到了DDR和DDR2时代,SIMM插槽已经很少见了。下边具体的说一下几种常见的内存插槽。
作者: solomonlee    时间: 2007-8-10 13:21
SIMM(Single Inline Memory Module,单列直插内存模块)

  内存条通过金手指与主板连接,内存条正反两面都带有金手指。金手指可以在两面提供不同的信号,也可以提供相同的信号。SIMM就是一种两侧金手指都提供相同信号的内存结构,它多用于早期的FPM和EDD DRAM,最初一次只能传输8bit数据,后来逐渐发展出16bit、32bit的SIMM模组,其中8bit和16bitSIMM使用30pin接口,32bit的则使用72pin接口。在内存发展进入SDRAM时代后,SIMM逐渐被DIMM技术取代。

RIMM(Rambus Inline Memory Module)是Rambus公司生产的RDRAM内存所采用的接口类型,RIMM内存与DIMM的外型尺寸差不多,金手指同样也是双面的。RIMM有也184 Pin的针脚,在金手指的中间部分有两个靠的很近的卡口。RIMM非ECC版有16位数据宽度,ECC版则都是18位宽。由于RDRAM内存较高的价格,此类内存在DIY市场很少见到,RIMM接口也就难得一见了。
作者: solomonlee    时间: 2007-8-10 13:22
DIMM(Dual Inline Memory Module,双列直插内存模块)与SIMM相当类似,不同的只是DIMM的金手指两端不像SIMM那样是互通的,它们各自独立传输信号,因此可以满足更多数据信号的传送需要。同样采用DIMM,SDRAM 的接口与DDR内存的接口也略有不同,SDRAM DIMM为168Pin DIMM结构,金手指每面为84Pin,金手指上有两个卡口,用来避免插入插槽时,错误将内存反向插入而导致烧毁;DDR DIMM则采用184Pin DIMM结构,金手指每面有92Pin,金手指上只有一个卡口。卡口数量的不同,是二者最为明显的区别。DDR2 DIMM为240pin DIMM结构,金手指每面有120Pin,与DDR DIMM一样金手指上也只有一个卡口,但是卡口的位置与DDR DIMM稍微有一些不同,因此DDR内存是插不进DDR2 DIMM的,同理DDR2内存也是插不进DDR DIMM的,因此在一些同时具有DDR DIMM和DDR2 DIMM的主板上,不会出现将内存插错插槽的问题。

  为了满足笔记本电脑对内存尺寸的要求,SO-DIMM(Small Outline DIMM Module)也开发了出来,它的尺寸比标准的DIMM要小很多,而且引脚数也不相同。同样SO-DIMM也根据SDRAM和DDR内存规格不同而不同,SDRAM的SO-DIMM只有144pin引脚,而DDR的SO-DIMM拥有200pin引脚。此外笔记本内存还有MicroDIMM和Mini Registered DIMM两种接口。MicroDIMM接口的DDR为172pin,DDR2为214pin;Mini Registered DIMM接口为244pin,主要用于DDR2内存。
作者: solomonlee    时间: 2007-8-10 13:23
INTEL超线程技术

CPU生产商为了提高CPU的性能,通常做法是提高CPU的时钟频率和增加缓存容量。不过目前CPU的频率越来越快,如果再通过提升CPU频率和增加缓存的方法来提高性能,往往会受到制造工艺上的限制以及成本过高的制约。

  尽管提高CPU的时钟频率和增加缓存容量后的确可以改善性能,但这样的CPU性能提高在技术上存在较大的难度。实际上在应用中基于很多原因,CPU的执行单元都没有被充分使用。如果CPU不能正常读取数据(总线/内存的瓶颈),其执行单元利用率会明显下降。另外就是目前大多数执行线程缺乏ILP(Instruction-Level Parallelism,多种指令同时执行)支持。这些都造成了目前CPU的性能没有得到全部的发挥。因此,Intel则采用另一个思路去提高CPU的性能,让CPU可以同时执行多重线程,就能够让CPU发挥更大效率,即所谓“超线程(Hyper-Threading,简称“HT”)”技术。超线程技术就是利用特殊的硬件指令,把两个逻辑内核模拟成两个物理芯片,让单个处理器都能使用线程级并行计算,进而兼容多线程操作系统和软件,减少了CPU的闲置时间,提高的CPU的运行效率。

  采用超线程及时可在同一时间里,应用程序可以使用芯片的不同部分。虽然单线程芯片每秒钟能够处理成千上万条指令,但是在任一时刻只能够对一条指令进行操作。而超线程技术可以使芯片同时进行多线程处理,使芯片性能得到提升。

  超线程技术是在一颗CPU同时执行多个程序而共同分享一颗CPU内的资源,理论上要像两颗CPU一样在同一时间执行两个线程,P4处理器需要多加入一个Logical CPU Pointer(逻辑处理单元)。因此新一代的P4 HT的die的面积比以往的P4增大了5%。而其余部分如ALU(整数运算单元)、FPU(浮点运算单元)、L2 Cache(二级缓存)则保持不变,这些部分是被分享的。

  虽然采用超线程技术能同时执行两个线程,但它并不象两个真正的CPU那样,每各CPU都具有独立的资源。当两个线程都同时需要某一个资源时,其中一个要暂时停止,并让出资源,直到这些资源闲置后才能继续。因此超线程的性能并不等于两颗CPU的性能。

  英特尔P4 超线程有两个运行模式,Single Task Mode(单任务模式)及Multi Task Mode(多任务模式),当程序不支持Multi-Processing(多处理器作业)时,系统会停止其中一个逻辑CPU的运行,把资源集中于单个逻辑CPU中,让单线程程序不会因其中一个逻辑CPU闲置而减低性能,但由于被停止运行的逻辑CPU还是会等待工作,占用一定的资源,因此Hyper-Threading CPU运行Single Task Mode程序模式时,有可能达不到不带超线程功能的CPU性能,但性能差距不会太大。也就是说,当运行单线程运用软件时,超线程技术甚至会降低系统性能,尤其在多线程操作系统运行单线程软件时容易出现此问题。

  需要注意的是,含有超线程技术的CPU需要芯片组、软件支持,才能比较理想的发挥该项技术的优势。目前支持超线程技术的芯片组包括如:英特尔i845GE、PE及矽统iSR658 RDRAM、SiS645DX、SiS651可直接支持超线程;英特尔i845E、i850E通过升级BIOS后可支持;威盛P4X400、P4X400A可支持,但未获得正式授权。操作系统如:Microsoft Windows XP、Microsoft Windows 2003,Linux kernel 2.4.x以后的版本也支持超线程技术。
作者: solomonlee    时间: 2007-8-10 13:23
64位技术

这里的64位技术是相对于32位而言的,这个位数指的是CPU GPRs(General-Purpose Registers,通用寄存器)的数据宽度为64位,64位指令集就是运行64位数据的指令,也就是说处理器一次可以运行64bit数据。64bit处理器并非现在才有的,在高端的RISC(Reduced Instruction Set Computing,精简指令集计算机)很早就有64bit处理器了,比如SUN公司的UltraSparc Ⅲ、IBM公司的POWER5、HP公司的Alpha等。

    64bit计算主要有两大优点:可以进行更大范围的整数运算;可以支持更大的内存。不能因为数字上的变化,而简单的认为64bit处理器的性能是32bit处理器性能的两倍。实际上在32bit应用下,32bit处理器的性能甚至会更强,即使是64bit处理器,目前情况下也是在32bit应用下性能更强。所以要认清64bit处理器的优势,但不可迷信64bit。

    要实现真正意义上的64位计算,光有64位的处理器是不行的,还必须得有64位的操作系统以及64位的应用软件才行,三者缺一不可,缺少其中任何一种要素都是无法实现64位计算的。目前,在64位处理器方面,Intel和AMD两大处理器厂商都发布了多个系列多种规格的64位处理器;而在操作系统和应用软件方面,目前的情况不容乐观。因为真正适合于个人使用的64位操作系统现在就只有Windows XP X64,而Windows XP X64本身也只是一个过渡性质的64位操作系统,在Windows Vista发布以后就将被淘汰,而且Windows XP X64本身也不太完善,易用性不高,一个明显的例子就是各种硬件设备的驱动程序很不完善,而且现在64位的应用软件还基本上没有,确实硬件厂商和软件厂商也不愿意去为一个过渡性质的操作系统编写驱动程序和应用软件。所以要想实现真正的64位计算,恐怕还得等到Windows Vista普及一段时间之后才行。

    目前主流CPU使用的64位技术主要有AMD公司的AMD64位技术、Intel公司的EM64T技术、和Intel公司的IA-64技术。其中IA-64是Intel独立开发,不兼容现在的传统的32位计算机,仅用于Itanium(安腾)以及后续产品Itanium 2,一般用户不会涉及到,因此这里仅对AMD64位技术和Intel的EM64T技术做一下简单介绍。

AMD64位技术
    AMD64的位技术是在原始32位X86指令集的基础上加入了X86-64扩展64位X86指令集,使这款芯片在硬件上兼容原来的32位X86软件,并同时支持X86-64的扩展64位计算,使得这款芯片成为真正的64位X86芯片。这是一个真正的64位的标准,X86-64具有64位的寻址能力。

    X86-64新增的几组CPU寄存器将提供更快的执行效率。寄存器是CPU内部用来创建和储存CPU运算结果和其它运算结果的地方。标准的32-bit x86架构包括8个通用寄存器(GPR),AMD在X86-64中又增加了8组(R8-R9),将寄存器的数目提高到了16组。X86-64寄存器默认位64-bit。还增加了8组128-bit XMM寄存器(也叫SSE寄存器,XMM8-XMM15),将能给单指令多数据流技术(SIMD)运算提供更多的空间,这些128位的寄存器将提供在矢量和标量计算模式下进行128位双精度处理,为3D建模、矢量分析和虚拟现实的实现提供了硬件基础。通过提供了更多的寄存器,按照X86-64标准生产的CPU可以更有效的处理数据,可以在一个时钟周期中传输更多的信息。

EM64T技术
    Intel官方是给EM64T这样定义的:EM64T全称Extended Memory 64 Technology,即扩展64bit内存技术。EM64T是Intel IA-32架构的扩展,即IA-32e(Intel Architectur-32 extension)。IA-32处理器通过附加EM64T技术,便可在兼容IA-32软件的情况下,允许软件利用更多的内存地址空间,并且允许软件进行32 bit线性地址写入。EM64T特别强调的是对32 bit和64 bit的兼容性。Intel为新核心增加了8个64 bit GPRs(R8-R15),并且把原有GRPs全部扩展为64 bit,如前文所述这样可以提高整数运算能力。增加8个128bit SSE寄存器(XMM8-XMM15),是为了增强多媒体性能,包括对SSE、SSE2和SSE3的支持。

    Intel为支持EM64T技术的处理器设计了两大模式:传统IA-32模式(legacy IA-32 mode)和IA-32e扩展模式(IA-32e mode)。在支持EM64T技术的处理器内有一个称之为扩展功能激活寄存器(extended feature enable register,IA32_EFER)的部件,其中的Bit10控制着EM64T是否激活。Bit10被称作IA-32e模式有效(IA-32e mode active)或长模式有效(long mode active,LMA)。当LMA=0时,处理器便作为一颗标准的32 bit(IA32)处理器运行在传统IA-32模式;当LMA=1时,EM64T便被激活,处理器会运行在IA-32e扩展模式下。

    目前AMD方面支持64位技术的CPU有Athlon 64系列、Athlon FX系列和Opteron系列。Intel方面支持64位技术的CPU有使用Nocona核心的Xeon系列、使用Prescott 2M核心的Pentium 4 6系列和使用Prescott 2M核心的P4 EE系列。
作者: solomonlee    时间: 2007-8-10 13:25
CPU倍频

CPU的倍频,全称是倍频系数。CPU的核心工作频率与外频之间存在着一个比值关系,这个比值就是倍频系数,简称倍频。理论上倍频是从1.5一直到无限的,但需要注意的是,倍频是以0.5为一个间隔单位。外频与倍频相乘就是主频,所以其中任何一项提高都可以使CPU的主频上升。

  原先并没有倍频概念,CPU的主频和系统总线的速度是一样的,但CPU的速度越来越快,倍频技术也就应允而生。它可使系统总线工作在相对较低的频率上,而CPU速度可以通过倍频来无限提升。那么CPU主频的计算方式变为:主频 = 外频 x 倍频。也就是倍频是指CPU和系统总线之间相差的倍数,当外频不变时,提高倍频,CPU主频也就越高。

    一个CPU默认的倍频只有一个,主板必须能支持这个倍频。因此在选购主板和CPU时必须注意这点,如果两者不匹配,系统就无法工作。此外,现在CPU的倍频很多已经被锁定,无法修改。
作者: solomonlee    时间: 2007-8-10 13:25
外频

外频是CPU乃至整个计算机系统的基准频率,单位是MHz(兆赫兹)。在早期的电脑中,内存与主板之间的同步运行的速度等于外频,在这种方式下,可以理解为CPU外频直接与内存相连通,实现两者间的同步运行状态。对于目前的计算机系统来说,两者完全可以不相同,但是外频的意义仍然存在,计算机系统中大多数的频率都是在外频的基础上,乘以一定的倍数来实现,这个倍数可以是大于1的,也可以是小于1的。

    说到处理器外频,就要提到与之密切相关的两个概念:倍频与主频,主频就是CPU的时钟频率;倍频即主频与外频之比的倍数。主频、外频、倍频,其关系式:主频=外频×倍频。

    在486之前,CPU的主频还处于一个较低的阶段,CPU的主频一般都等于外频。而在486出现以后,由于CPU工作频率不断提高,而PC机的一些其他设备(如插卡、硬盘等)却受到工艺的限制,不能承受更高的频率,因此限制了CPU频率的进一步提高。因此出现了倍频技术,该技术能够使CPU内部工作频率变为外部频率的倍数,从而通过提升倍频而达到提升主频的目的。倍频技术就是使外部设备可以工作在一个较低外频上,而CPU主频是外频的倍数。

    在Pentium时代,CPU的外频一般是60/66MHz,从Pentium Ⅱ 350开始,CPU外频提高到100MHz,目前CPU外频已经达到了200MHz。由于正常情况下外频和内存总线频率相同,所以当CPU外频提高后,与内存之间的交换速度也相应得到了提高,对提高电脑整体运行速度影响较大。

    外频与前端总线(FSB)频率很容易被混为一谈。前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目的。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。

    一个CPU默认的外频只有一个,主板必须能支持这个外频。因此在选购主板和CPU时必须注意这点,如果两者不匹配,系统就无法工作。此外,现在CPU的倍频很多已经被锁定,所以超频时经常需要超外频。外频改变后系统很多其他频率也会改变,除了CPU主频外,前端总线频率、PCI等各种接口频率,包括硬盘接口的频率都会改变,都可能造成系统无法正常运行。当然有些主板可以提供锁定各种接口频率的功能,对成功超频有很大帮助。超频有风险,甚至会损坏计算机硬件。
作者: solomonlee    时间: 2007-8-10 13:26
核心电压

CPU的工作电压(Supply Voltage),即CPU正常工作所需的电压。任何电器在工作的时候都需要电,自然也有对应额定电压,CPU也不例外。目前CPU的工作电压有一个非常明显的下降趋势,较低的工作电压主要三个优点:

采用低电压的CPU的芯片总功耗降低了。功耗降低,系统的运行成本就相应降低,这对于便携式和移动系统来说非常重要,使其现有的电池可以工作更长时间,从而使电池的使用寿命大大延长;
功耗降低,致使发热量减少,运行温度不过高的CPU可以与系统更好的配合;
降低电压是CPU主频提高的重要因素之一。
  CPU的工作电压分为两个方面,CPU的核心电压与I/O电压。核心电压即驱动CPU核心芯片的电压,I/O电压则指驱动I/O电路的电压。通常CPU的核心电压小于等于I/O电压。

  早期CPU(286~486时代)的核心电压与I/O一致,通常为5V,由于当时的制造工艺相对落后,以致CPU的发热量过大,导致其寿命缩短。不过那时的CPU集成度很低,而目前的CPU集成度相当高,因此显得现在的CPU发热量更大。随着CPU的制造工艺提高,近年来各种CPU的工作电压有逐步下降的趋势,目前台式机用CPU核电压通常为2V以内,笔记本专用CPU的工作电压相对更低,从而达到大幅减少功耗的目的,以延长电池的使用寿命,并降低了CPU发热量。而且现在的CPU会通过特殊的电压ID(VID)引脚来指示主板中嵌入的电压调节器自动设置正确的电压级别。

  许多面向新款CPU的主板都会提供特殊的跳线或者软件设置,通过这些跳线或软件,可以根据具体需要手动调节CPU的工作电压。很多实验表明在超频的时候适度提高核心电压,可以加强CPU内部信号,对CPU性能的提升会有很大帮助——但这样也会提高CPU的功耗,影响其寿命及发热量,建议一般用户不要进行此方面的操作。

    此外从Vinice核心的Athlon 64开始,AMD在Socket 939接口的处理器上采用了动态电压,在CPU封装上不再标明CPU的默认核心电压,同一核心的CPU其核心电压是可变的,不同的CPU可能会有不同的核心电压:1.30V、1.35V或1.40V。
作者: solomonlee    时间: 2007-8-10 13:27
虚拟化技术

虚拟化是一个广义的术语,在计算机方面通常是指计算元件在虚拟的基础上而不是真实的基础上运行。虚拟化技术可以扩大硬件的容量,简化软件的重新配置过程。CPU的虚拟化技术可以单CPU模拟多CPU并行,允许一个平台同时运行多个操作系统,并且应用程序都可以在相互独立的空间内运行而互不影响,从而显著提高计算机的工作效率。

    虚拟化技术与多任务以及超线程技术是完全不同的。多任务是指在一个操作系统中多个程序同时并行运行,而在虚拟化技术中,则可以同时运行多个操作系统,而且每一个操作系统中都有多个程序运行,每一个操作系统都运行在一个虚拟的CPU或者是虚拟主机上;而超线程技术只是单CPU模拟双CPU来平衡程序运行性能,这两个模拟出来的CPU是不能分离的,只能协同工作。

    虚拟化技术也与目前VMware Workstation等同样能达到虚拟效果的软件不同,是一个巨大的技术进步,具体表现在减少软件虚拟机相关开销和支持更广泛的操作系统方面。

    纯软件虚拟化解决方案存在很多限制。“客户”操作系统很多情况下是通过VMM(Virtual Machine Monitor,虚拟机监视器)来与硬件进行通信,由VMM来决定其对系统上所有虚拟机的访问。(注意,大多数处理器和内存访问独立于VMM,只在发生特定事件时才会涉及VMM,如页面错误。)在纯软件虚拟化解决方案中,VMM在软件套件中的位置是传统意义上操作系统所处的位置,而操作系统的位置是传统意义上应用程序所处的位置。这一额外的通信层需要进行二进制转换,以通过提供到物理资源(如处理器、内存、存储、显卡和网卡等)的接口,模拟硬件环境。这种转换必然会增加系统的复杂性。此外,客户操作系统的支持受到虚拟机环境的能力限制,这会阻碍特定技术的部署,如64位客户操作系统。在纯软件解决方案中,软件堆栈增加的复杂性意味着,这些环境难于管理,因而会加大确保系统可靠性和安全性的困难。

    而CPU的虚拟化技术是一种硬件方案,支持虚拟技术的CPU带有特别优化过的指令集来控制虚拟过程,通过这些指令集,VMM会很容易提高性能,相比软件的虚拟实现方式会很大程度上提高性能。虚拟化技术可提供基于芯片的功能,借助兼容VMM软件能够改进纯软件解决方案。由于虚拟化硬件可提供全新的架构,支持操作系统直接在上面运行,从而无需进行二进制转换,减少了相关的性能开销,极大简化了VMM设计,进而使VMM能够按通用标准进行编写,性能更加强大。另外,在纯软件VMM中,目前缺少对64位客户操作系统的支持,而随着64位处理器的不断普及,这一严重缺点也日益突出。而CPU的虚拟化技术除支持广泛的传统操作系统之外,还支持64位客户操作系统。

    虚拟化技术是一套解决方案。完整的情况需要CPU、主板芯片组、BIOS和软件的支持,例如VMM软件或者某些操作系统本身。即使只是CPU支持虚拟化技术,在配合VMM的软件情况下,也会比完全不支持虚拟化技术的系统有更好的性能。

    两大CPU巨头Intel和AMD都想方设法在虚拟化领域中占得先机,但是AMD的虚拟化技术在时间上要比Intel落后几个月。Intel自2005年末开始便在其处理器产品线中推广应用Intel Virtualization Technology(Intel VT)虚拟化技术。目前,Intel已经发布了具有Intel VT虚拟化技术的一系列处理器产品,包括桌面平台的Pentium 4 6X2系列、Pentium D 9X0系列和Pentium EE 9XX系列,还有Core Duo系列和Core Solo系列中的部分产品,以及服务器/工作站平台上的Xeon LV系列、Xeon 5000系列、Xeon 5100系列、Xeon MP 7000系列以及Itanium 2 9000系列;同时绝大多数的Intel下一代主流处理器,包括Merom核心移动处理器,Conroe核心桌面处理器,Woodcrest核心服务器处理器,以及基于Montecito核心的Itanium 2高端服务器处理器都将支持Intel VT虚拟化技术。

    而AMD方面也已经发布了支持AMD Virtualization Technology(AMD VT)虚拟化技术的一系列处理器产品,包括Socket S1接口的Turion 64 X2系列以及Socket AM2接口的Athlon 64 X2系列和Athlon 64 FX系列等等,并且绝大多数的AMD下一代主流处理器,包括即将发布的Socket F接口的Opteron都将支持AMD VT虚拟化技术。
作者: solomonlee    时间: 2007-8-10 13:27
3DNOW!

由AMD公司提出的3DNow!指令集应该说出现在SSE指令集之前,并被AMD广泛应用于其K6-2 、K6-3以及Athlon(K7)处理器上。3DNow!指令集技术其实就是21条机器码的扩展指令集。

  与Intel公司的MMX技术侧重于整数运算有所不同,3DNow!指令集主要针对三维建模、坐标变换 和效果渲染等三维应用场合,在软件的配合下,可以大幅度提高3D处理性能。后来在Athlon上开发了Enhanced 3DNow!。这些AMD标准的SIMD指令和Intel的SSE具有相同效能。因为受到Intel在商业上以及Pentium III成功的影响,软件在支持SSE上比起3DNow!更为普遍。Enhanced 3DNow!AMD公司继续增加至52个指令,包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能。
作者: solomonlee    时间: 2007-8-10 13:28
多媒体指令集

CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。我们通常会把CPU的扩展指令集称为"CPU的指令集"。



精简指令集的运用

  在最初发明计算机的数十年里,随着计算机功能日趋增大,性能日趋变强,内部元器件也越来越多,指令集日趋复杂,过于冗杂的指令严重的影响了计算机的工作效率。后来经过研究发现,在计算机中,80%程序只用到了20%的指令集,基于这一发现,RISC精简指令集被提了出来,这是计算机系统架构的一次深刻革命。RISC体系结构的基本思路是:抓住CISC指令系统指令种类太多、指令格式不规范、寻址方式太多的缺点,通过减少指令种类、规范指令格式和简化寻址方式,方便处理器内部的并行处理,提高VLSI器件的使用效率,从而大幅度地提高处理器的性能。

  RISC指令集有许多特征,其中最重要的有:

指令种类少,指令格式规范:RISC指令集通常只使用一种或少数几种格式。指令长度单一(一般4个字节),并且在字边界上对齐。字段位置、特别是操作码的位置是固定的。
寻址方式简化:几乎所有指令都使用寄存器寻址方式,寻址方式总数一般不超过5个。其他更为复杂的寻址方式,如间接寻址等则由软件利用简单的寻址方式来合成。
大量利用寄存器间操作:RISC指令集中大多数操作都是寄存器到寄存器操作,只以简单的Load和Store操作访问内存。因此,每条指令中访问的内存地址不会超过1个,访问内存的操作不会与算术操作混在一起。
简化处理器结构:使用RISC指令集,可以大大简化处理器的控制器和其他功能单元的设计,不必使用大量专用寄存器,特别是允许以硬件线路来实现指令操作,而不必像CISC处理器那样使用微程序来实现指令操作。因此RISC处理器不必像CISC处理器那样设置微程序控制存储器,就能够快速地直接执行指令。
便于使用VLSI技术:随着LSI和VLSI技术的发展,整个处理器(甚至多个处理器)都可以放在一个芯片上。RISC体系结构可以给设计单芯片处理器带来很多好处,有利于提高性能,简化VLSI芯片的设计和实现。基于VLSI技术,制造RISC处理器要比CISC处理器工作量小得多,成本也低得多。
加强了处理器并行能力:RISC指令集能够非常有效地适合于采用流水线、超流水线和超标量技术,从而实现指令级并行操作,提高处理器的性能。目前常用的处理器内部并行操作技术基本上是基于RISC体系结构发展和走向成熟的。

  正由于RISC体系所具有的优势,它在高端系统得到了广泛的应用,而CISC体系则在桌面系统中占据统治地位。而在如今,在桌面领域,RISC也不断渗透,预计未来,RISC将要一统江湖。



CPU的扩展指令集

  对于CPU来说,在基本功能方面,它们的差别并不太大,基本的指令集也都差不多,但是许多厂家为了提升某一方面性能,又开发了扩展指令集,扩展指令集定义了新的数据和指令,能够大大提高某方面数据处理能力,但必需要有软件支持。

MMX 指令集
    MMX(Multi Media eXtension,多媒体扩展指令集)指令集是Intel公司于1996年推出的一项多媒体指令增强技术。MMX指令集中包括有57条多媒体指令,通过这些指令可以一次处理多个数据,在处理结果超过实际处理能力的时候也能进行正常处理,这样在软件的配合下,就可以得到更高的性能。MMX的益处在于,当时存在的操作系统不必为此而做出任何修改便可以轻松地执行MMX程序。但是,问题也比较明显,那就是MMX指令集与x87浮点运算指令不能够同时执行,必须做密集式的交错切换才可以正常执行,这种情况就势必造成整个系统运行质量的下降。

SSE指令集
    SSE(Streaming SIMD Extensions,单指令多数据流扩展)指令集是Intel在Pentium III处理器中率先推出的。其实,早在PIII正式推出之前,Intel公司就曾经通过各种渠道公布过所谓的KNI(Katmai New Instruction)指令集,这个指令集也就是SSE指令集的前身,并一度被很多传媒称之为MMX指令集的下一个版本,即MMX2指令集。究其背景,原来"KNI"指令集是Intel公司最早为其下一代芯片命名的指令集名称,而所谓的"MMX2"则完全是硬件评论家们和媒体凭感觉和印象对"KNI"的 评价,Intel公司从未正式发布过关于MMX2的消息。

  而最终推出的SSE指令集也就是所谓胜出的"互联网SSE"指令集。SSE指令集包括了70条指令,其中包含提高3D图形运算效率的50条SIMD(单指令多数据技术)浮点运算指令、12条MMX 整数运算增强指令、8条优化内存中连续数据块传输指令。理论上这些指令对目前流行的图像处理、浮点运算、3D运算、视频处理、音频处理等诸多多媒体应用起到全面强化的作用。S SE指令与3DNow!指令彼此互不兼容,但SSE包含了3DNow!技术的绝大部分功能,只是实现的方法不同。SSE兼容MMX指令,它可以通过SIMD和单时钟周期并行处理多个浮点数据来有效地提高浮点运算速度。

SSE2指令集
    SSE2(Streaming SIMD Extensions 2,Intel官方称为SIMD 流技术扩展 2或数据流单指令多数据扩展指令集 2)指令集是Intel公司在SSE指令集的基础上发展起来的。相比于SSE,SSE2使用了144个新增指令,扩展了MMX技术和SSE技术,这些指令提高了广大应用程序的运行性能。随MMX技术引进的SIMD整数指令从64位扩展到了128 位,使SIMD整数类型操作的有效执行率成倍提高。双倍精度浮点SIMD指令允许以 SIMD格式同时执行两个浮点操作,提供双倍精度操作支持有助于加速内容创建、财务、工程和科学应用。除SSE2指令之外,最初的SSE指令也得到增强,通过支持多种数据类型(例如,双字和四字)的算术运算,支持灵活并且动态范围更广的计算功能。SSE2指令可让软件开发员极其灵活的实施算法,并在运行诸如MPEG-2、MP3、3D图形等之类的软件时增强性能。Intel是从Willamette核心的Pentium 4开始支持SSE2指令集的,而AMD则是从K8架构的SledgeHammer核心的Opteron开始才支持SSE2指令集的。

SSE3指令集
    SSE3(Streaming SIMD Extensions 3,Intel官方称为SIMD 流技术扩展 3或数据流单指令多数据扩展指令集 3)指令集是Intel公司在SSE2指令集的基础上发展起来的。相比于SSE2,SSE3在SSE2的基础上又增加了13个额外的SIMD指令。SSE3 中13个新指令的主要目的是改进线程同步和特定应用程序领域,例如媒体和游戏。这些新增指令强化了处理器在浮点转换至整数、复杂算法、视频编码、SIMD浮点寄存器操作以及线程同步等五个方面的表现,最终达到提升多媒体和游戏性能的目的。Intel是从Prescott核心的Pentium 4开始支持SSE3指令集的,而AMD则是从2005年下半年Troy核心的Opteron开始才支持SSE3的。但是需要注意的是,AMD所支持的SSE3与Intel的SSE3并不完全相同,主要是删除了针对Intel超线程技术优化的部分指令。

3D Now !指令集
    由AMD公司提出的3DNow!指令集应该说出现在SSE指令集之前,并被AMD广泛应用于其K6-2 、K6-3以及Athlon(K7)处理器上。3DNow!指令集技术其实就是21条机器码的扩展指令集。

  与Intel公司的MMX技术侧重于整数运算有所不同,3DNow!指令集主要针对三维建模、坐标变换 和效果渲染等三维应用场合,在软件的配合下,可以大幅度提高3D处理性能。后来在Athlon上开发了Enhanced 3DNow!。这些AMD标准的SIMD指令和Intel的SSE具有相同效能。因为受到Intel在商业上以及Pentium III成功的影响,软件在支持SSE上比起3DNow!更为普遍。Enhanced 3DNow!AMD公司继续增加至52个指令,包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能。

    目前最新的Intel CPU可以支持SSE、SSE2、SSE3指令集。早期的AMD CPU仅支持3DNow!指令集,随着Intel的逐步授权,从Venice核心的Athlon 64开始,AMD的CPU不仅进一步发展了3DNow!指令集,并且可以支持Inel的SSE、SSE2、SSE3指令集。不过目前业界接受比较广泛的还是Intel的SSE系列指令集,AMD的3DNow!指令集应用比较少。
作者: 不会游泳的鱼    时间: 2007-8-10 13:56
很详细,辛苦小李了!
作者: 李逍遥    时间: 2007-8-12 02:16
有空我慢慢看。呵呵。
作者: louiswz    时间: 2007-8-12 02:29
真详细~~
辛苦了
李哥...[s:34]




欢迎光临 工大在线 (http://ruolanmy.hk1.ifreeurl.com/) Powered by Discuz! X2.5