cpu主频计算方法

文章描述:-2022年4月14日发(作者:车婉婉)本文整理于网络,仅供阅读参考cpu主频计算方法cpu主频计算方法一一般的cpu频率在3ghz左右就比较好,但cpu主频不是性能定位的指标。1、cpu的架构影响力最大,例如p43.0ghz的架构相比haswell架构,性能差距很远。2、散热器性能,散热不好,会导致cpu性能下降。3、主板供电不足时,cpu性能也有一定影响。cpu主频计算方法二双核cpu主频跟其

-

cpu主频计算方法
2022年4月14日发
(作者:车婉婉)

本文整理于网络,仅供阅读参考

cpu主频计算方法cpu主频计算方法一一般的cpu频率在3ghz左右就比较

好,但cpu主频不是性能定位的指标。1、cpu的架构影响力最大,例如p43.0ghz的架构相比haswell

架构,性能差距很远。2、散热器性能,散热不好,会导致cpu性能下降。3、主板供电不足时,cpu性能也有一定影响。cpu主频计算方法二双核cpu主频跟其中每个单核处理

器的主频是一致的,也就是说,主频的概念和含义就是每个处理

器核心的时钟频率,它们之间是相同设计的,并没有叠加计算主

频的情况。cpu的核心架构在发展到多核的时候,目的主要为了多任务的

并行处理更快捷方便,因为老的单核流水线形式已经无法满足日

渐增长的多任务需求,而每个核心的频率又无法继续大幅度增加所以通过多个核心并存并行的方式进行。这里的并行不是对

一个任务分解为小任务单元后同时计算运行,而是每个处理器核

心对应一个不同的任务,各自之间几乎独立同时进行,互不干扰

运算。当然,多核并行的执行还要取决于程序支持多核运算。但无

论怎样,整个cpu的主频就是其中每个单核心的主频。不存在其

他的计算方式。

本文整理于网络,仅供阅读参考cpu主频计算方法三外频x倍频=主频外频也叫cpu前端

总线频率或基频,计量单位为“mhz“。cpu的主频与外频有一定

的比例(倍频)关系,由于内存和设置在主板上的l2cache的工作

频率与cpu外频同步,所以使用外频高的cpu组装电脑,其整体

性能比使用相同主频但外频低一级的cpu要高。这项参数关系古

巴使用主板的选择。倍频系数是cpu主频和外频之间的比例关系,一般为:主频

=外频*倍频。iintel公司所有cpu(少数测试产品例外)的倍频通

常已被锁定(锁频),用户无法用调整倍频的方法来调整cpu的主

频,但仍然可以通过调整外频为设置不同的主频。adm和其它公司

的cpu未锁频。相关阅读:cpu处理技术在解释超流水线与超标量前,先了解流水线(pipeline)。流

水线是intel首次在486芯片中开始使用的。流水线的工作方式

就象工业生产上的装配流水线。在cpu中由5-6个不同功能的电

路单元组成一条指令处理流水线,然后将一条x86指令分成5-6

步后再由这些电路单元分别执行,这样就能实现在一个cpu时钟

周期完成一条指令,因此提高cpu的运算速度。经典奔腾每条整

数流水线都分为四级流水,即指令预取、译码、执行、写回结果,

浮点流水又分为八级流水。超标量是通过内置多条流水线来同时

执行多个处理器,其实质是以空间换取时间。而超流水线是通过

细化流水、提高主频,使得在一个机器周期内完成一个甚至多个

操作,其实质是以空间换取时间。例如pentium4的流水线就长

本文整理于网络,仅供阅读参考

达20级。将流水线设计的步(级)越长,其完成一条指令的速度越

快,因此才能适应工作主频更高的cpu。但是流水线过长也带来了

一定副作用,很可能会出现主频较高的cpu实际运算速度较低的

现象,intel的奔腾4就出现了这种情况,虽然它的主频可以高达

1.4g以上,但其运算性能却远远比不上amd1.2g的速龙甚至奔腾

iii-s。cpu封装是采用特定的材料将cpu芯片或cpu模块固化在其中

以防损坏的保护措施,一般必须在封装后cpu才能交付用户使用。

cpu的封装方式取决于cpu安装形式和器件集成设计,从大的分类

来看通常采用socket插座进行安装的cpu使用pga(栅格阵列)方

式封装,而采用slotx槽安装的cpu则全部采用sec(单边接插盒)

的形式封装。还有plga(plasticlandgridarray)、olga(organic

landgridarray)等封装技术。由于市场竞争日益激烈,cpu封装

技术的发展方向以节约成本为主。多线程同时多线程simultaneousmultithreading,简称smt。smt

可通过复制处理器上的结构状态,让同一个处理器上的多个线程

同步执行并共享处理器的执行资源,可最大限度地实现宽发射、

乱序的超标量处理,提高处理器运算部件的利用率,缓和由于数

据相关或cache未命中带来的访问内存延时。当没有多个线程可

用时,smt处理器几乎和传统的宽发射超标量处理器一样。smt最

具吸引力的是只需小规模改变处理器核心的设计,几乎不用增加

额外的成本就可以显著地提升效能。多线程技术则可以为高速的

运算核心准备更多的待处理数据,减少运算核心的闲置时间。这

本文整理于网络,仅供阅读参考

对于桌面低端系统来说无疑十分具有吸引力。intel从3.06ghz

pentium4开始,部分处理器将支持smt技术。多核心多核心,也指单芯片多处理器(chipmultiprocessors,简称

cmp)。cmp是由美国斯坦福大学提出的,其思想是将大规模并行处

理器中的smp(对称多处理器)集成到同一芯片内,各个处理器并行

执行不同的进程。这种依靠多个cpu同时并行地运行程序是实现

超高速计算的一个重要方向,称为并行处理。与cmp比较,smp

处理器结构的灵活性比较突出。但是,当半导体工艺进入0.18微

米以后,线延时已经超过了门延迟,要求微处理器的设计通过划

分许多规模更小、局部性更好的基本单元结构来进行。相比之下,

由于cmp结构已经被划分成多个处理器核来设计,每个核都比较

简单,有利于优化设计,因此更有发展前途。ibm的power4芯

片和sun的majc5200芯片都采用了cmp结构。多核处理器可以在

处理器内部共享缓存,提高缓存利用率,同时简化多处理器系统

设计的复杂度。但这并不是说明,核心越多,性能越高,比如说

16核的cpu就没有8核的cpu运算速度快,因为核心太多,而不

能合理进行分配,所以导致运算速度减慢。在买电脑时请酌情选

择。2005年下半年,intel和amd的新型处理器也将融入cmp结

构。新安腾处理器开发代码为montecito,采用双核心设计,拥有

最少18mb片内缓存,采取90nm工艺制造。它的每个单独的核心

都拥有独立的l1,l2和l3cache,包含大约10亿支晶体管。smpsmp(symmetricmulti-processing),对称多处理结构的简称,

本文整理于网络,仅供阅读参考

是指在一个计算机上汇集了一组处理器(多cpu),各cpu之间共享

内存子系统以及总线结构。在这种技术的支持下,一个服务器系

统可以同时运行多个处理器,并共享内存和其他的主机资源。像

双至强,也就是所说的二路,这是在对称处理器系统中最常见的

一种(至强mp可以支持到四路,amdopteron可以支持1-8路)。

也有少数是16路的。但是一般来讲,smp结构的机器可扩展性较

差,很难做到100个以上多处理器,常规的一般是8个到16个,

不过这对于多数的用户来说已经够用了。在高性能服务器和工作

站级主板架构中最为常见,像unix服务器可支持最多256个cpu

的系统。构建一套smp系统的必要条件是:支持smp的硬件包括主板

和cpu;支持smp的系统平台,再就是支持smp的应用软件。为了

能够使得smp系统发挥高效的性能,操作系统必须支持smp系统,

如winnt、linux、以及unix等等32位操作系统。即能够进行多

任务和多线程处理。多任务是指操作系统能够在同一时间让不同

的cpu完成不同的任务;多线程是指操作系统能够使得不同的cpu

并行的完成同一个任务。要组建smp系统,对所选的cpu有很高的要求,首先、cpu

内部必须内置apic(advancedprogrammableinterrupt

controllers)单元。intel多处理规范的核心就是高级可编程中

断控制器(advancedprogrammableinterruptcontrollers–

apics)的使用;再次,相同的产品型号,同样类型的cpu核心,完

全相同的运行频率;最后,尽可能保持相同的产品序列编号,因为

两个生产批次的cpu作为双处理器运行的时候,有可能会发生一

本文整理于网络,仅供阅读参考

颗cpu负担过高,而另一颗负担很少的情况,无法发挥最大性能,

更糟糕的是可能导致死机。numa技术numa即非一致访问分布共享存储技术,它是由若干通过高速

专用网络连接起来的独立节点构成的系统,各个节点可以是单个

的cpu或是smp系统。在numa中,cache的一致性有多种解决方

案,一般采用硬件技术实现对cache的一致性维护,通常需要操

作系统针对numa访存不一致的特性(本地内存和远端内存访存延

迟和带宽的不同)进行特殊优化以提高效率,或采用特殊软件编程

方法提高效率。numa系统的例子。这里有3个smp模块用高速专

用网络联起来,组成一个节点,每个节点可以有12个cpu。像

sequent的系统最多可以达到64个cpu甚至256个cpu。显然,

这是在smp的基础上,再用numa的技术加以扩展,是这两种技术

的结合。乱序执行乱序执行(out-of-orderexecution),是指cpu允许将多条指

令不按程序规定的顺序分开发送给各相应电路单元处理的技术。

这样将根据个电路单元的状态和各指令能否提前执行的具体情况

分析后,将能提前执行的指令立即发送给相应电路单元执行,在

这期间不按规定顺序执行指令,然后由重新排列单元将各执行单

元结果按指令顺序重新排列。采用乱序执行技术的目的是为了使

cpu内部电路满负荷运转并相应提高了cpu的运行程序的速度。分枝技术(branch)指令进行运算时需要等待结果,一般无条件分枝只

本文整理于网络,仅供阅读参考

需要按指令顺序执行,而条件分枝必须根据处理后的结果,再决

定是否按原先顺序进行。控制器许多应用程序拥有更为复杂的读取模式(几乎是随机地,特别

是当cachehit不可预测的时候),并且没有有效地利用带宽。典

型的这类应用程序就是业务处理软件,即使拥有如乱序执行(out

oforderexecution)这样的cpu特性,也会受内存延迟的限制。

这样cpu必须得等到运算所需数据被除数装载完成才能执行指令

(无论这些数据来自cpucache还是主内存系统)。当前低段系统

的内存延迟大约是120-150ns,而cpu速度则达到了4ghz以上,

一次单独的内存请求可能会浪费200-300次cpu循环。即使在缓

存命中率(cachehitrate)达到99.9%的情况下,cpu也可能会花

50%的时间来等待内存请求的结束-比如因为内存延迟的缘故。在处理器内部整合内存控制器,使得北桥芯片将变得不那么

重要,改变了处理器访问主存的方式,有助于提高带宽、降低内

存延时和提升处理器性制造工艺:intel的i5可以达到28纳米,

在将来的cpu制造工艺可以达到22纳米。

看了“cpu主频如何去计算”文章的

-

cpu主频计算方法

发布时间:2022-04-14 08:38:54
文章版权声明:除非注明,否则均为IT技术网-学习WEB前端开发等IT技术的网络平台原创文章,转载或复制请以超链接形式并注明出处。

发表评论

评论列表 (有 17 条评论,868人围观)

最近发表

随便看看

热门文章

标签列表