[硬件求助] 超10g?全人类感谢你?其实从ddr1-ddr5,内存核心频率其实基本上就没太大的进步。

aexotic-avatar

aexotic

2024-11-12T02:50:57+00:00

从2001年DDR内存面世以来发展到今天,已经走过了DDR、DDR2、DDR3、DDR4、DDR5。内存的工作频率也从DDR时代的266MHz进化到了今天的8400MHz。超频到10ghz全人类感谢你的纪录都有了,但是有人会序想,为什么cpu超个6ghz就可以烧开水功耗几百瓦了,但是内存频率似乎可以无限飞升,其实这个频率在操作系统里叫Speed、在内存术语里叫等效频率、或干脆直接简称频率。这个频率越高,每秒钟内存IO的吞吐量越大。但其实内存有一个最最基本的频率叫核心频率,是实际内存电路的工作时的一个振荡频率。它是内存工作的基础,很大程度上会影响内存的IO延迟。我今天想给大家揭开另外一面,这个叫核心频率的东东其实在最近的18年里,基本上就没有什么太大的进步。
首先我们要了解什么是原始概念的频率,时钟信号是信号的一种特殊信号振荡之间的高和低的状态,始终按照按一定电压幅度、时间间隔连续发出的方波信号,信号之间的时间间隔称为周期,单位是s(秒);单位时间(即1s)内所产生的脉冲个数称之为频率,频率的标准计量单位是Hz。表示在芯片内数字脉冲信号震荡的速度。比如我们平时看到的CPU主频4.0GHZ、3.0GHZ等指的就是,即每秒可以产生40亿、30亿个脉冲信号。主频大多数情况下与芯片的性能是正相关的,但是也经常有例外,比如臭名昭著高频低能的奔腾4和推土机。
[img]https://img.nga.178.com/attachments/mon_202411/19/9aQ19v-8817KlToS5f-55.jpg[/img]
上了年纪的机油都知道,AMD第一次崛起的时候cpu编号都是什么3000+ 4800+5000+,这是因为,第一次推出K7以及Athlon的时候,均采用的是真实频率标称,例如1G的Athlon的运行频率就是1000MHz。AthlonXP处理器明明频率低得多但是性能更强。究竟原因原来最早采用Willamette核心的P4处理器由于技术的原因,加上只有256KB的二级缓存,P4 1.7G的CPU在性能上甚至还不如AMD的Athlon1.2G。加上一些非专业用户长期存在选购上的误区,所以都认为更高频率的P4处理器应该会带来更好的性能。加上Intel的宣传优势以及P4处理器频率的节节提升,Pentium4处理器的销售自然比较乐观,相反性能不俗的AMD反被人们渐渐遗忘。为了和Intel的高主频处理器对抗以及取得更多的市场份额,AMD在后面推出的AthlonXP处理器中开始采用了“真实性能标称”的做法,也就是我们所说到的CPU PR值。1700+的意思是虽然我cpu频率只有1.2g,但是实际性能等于p4的1.7g.比如经典的amd 3000+实际频率是1.8G.但实际性能超过了但是的p4 3.06g
SLOPPY-avatar

SLOPPY

[s:ac:哭笑] 我寻思好歹区分下MHz和MT/s再和CPU比
Eatta-avatar

Eatta

现如今的内存频率,就有些类似当时amd处理器rp值得概念,最早,内存频率主要以MHz(MHz代表百万赫兹,即每秒百万次)为单位。MHz作为一个简洁明了的单位,被广泛接受且易于理解,因此厂商普遍使用这种单位来描述内存性能。然而,随着DDR(Double Data Rate,双倍数据速率)内存的普及,单纯使用MHz表示内存频率显得不再准确且容易引起误解。 DDR内存实现了在一个时钟周期内进行两次数据传输,即在时钟信号的上升沿和下降沿各一次。于是,DDR内存的实际数据传输速率就相当于是标称时钟频率的两倍。这就引入了MT/s(Million Transfers per Second,每秒百万次传输)这一更能精准描述数据传输性能的单位。简单来说,MHz和MT/s这两个单位在本质上虽然都描述了频率,但所指的具体内容却不同。MHz是描述每秒的时钟周期数,而MT/s则是描述每秒的数据传输次数。 1MHz 等于 1,000,000 Hz,也就是每秒钟有 1,000,000 次时钟信号切换。但由于DDR内存在一个时钟周期内能够进行两次数据传输,所以时钟频率为1MHz的内存,其数据传输速率实际上是2MT/s。
这种区别显然不仅仅是单位的不同,更重要的是对应的实际性能指标不同。在DDR内存推出之前,市场主要以MHz来宣传内存的时钟频率,不过这在实际应用及技术推广中带来了误解和混淆。为此在DDR5内存发布之后规范化标准的进步,行业逐渐转向MT/s作为主要衡量单位。这个频率又叫Data Speed,或等效频率。各个商家在内存的销售页面上也把这个频率标在特别明显的位置,提醒消费者他家的内存有多快多快。但其实从内存条的技术参数上来讲,有个最为重要的频率,是核心频率,它是内存电路的震荡频率,是内存一切工作的基石。

[img]https://img.nga.178.com/attachments/mon_202411/19/9aQ19v-1njbK2mT1kSeg-78.jpg[/img]
我汇总了从SDR时代,一直到目前主流的DDR4的内存的频率表对比。大家可以看到核心频率已经多年没有实质性进步了,这是受物理材料的极限限制,内存的核心频率一直在133MHz~200MHz之间徘徊。我们所看到的内存Speed是在这个核心频率的基础上,通过各种技术手段放大出来的。之所以我们感觉内存在越来越快,就是放大技术手段在不断进步而已。
这也就为什么每一代内存出现都会有人说低频ddrX不如高频ddrX-1的真正原因,因为低频ddr5的真实核心频率是真不如高频ddr4高啊!举例同样是2133频率,ddr3 2133的真实时钟频率远高于ddr4 2133,实际性能可能比ddr4 2800都要更强。
Eatta-avatar

Eatta

这也是为什么内存越进步,延迟周期反而会变大了呢?

从ddr3的cl9,到现在动不动就30、40的时序
这就是因为延迟周期使用延迟时间除以内存Speed算出来的。这其实根本就不科学,最科学的办法应该是用延迟时间来评估。延迟时间很大程度上是受内存的核心频率的制约的。而这些年核心频率又没有进步,所以延迟时间也不会有实质的降低。内存的制造商们又为了频率数据好看,能多卖些内存,非得采用Speed作为主周期来用。导致在用这个周期一衡量,貌似延迟周期就越来越大了
Charlie.-avatar

Charlie.

长求总,百度百家号文章

反正市售存储类产品宣传单位没问题,按需购买
mattz-avatar

mattz

[quote][pid=795591765,42492738,1]Reply[/pid] Post by [uid=43365735]shotia[/uid] (2024-11-19 11:10):

这也是为什么内存越进步,延迟周期反而会变大了呢?

这就是因为延迟周期使用延迟时间除以内存Speed算出来的[/quote]倒反天罡[s:ac:哭笑]
延迟周期是人为设定的啊 不得先有周期 再乘速率 最后得到延迟时间
罗里吧嗦一大段就为了夹这点私货 以为看不出来是吧
Eatta-avatar

Eatta

Reply to [pid=795592672,42492738,1]Reply[/pid] Post by [uid=65225597]Eureka030[/uid] (2024-11-19 11:13)
那是他们掌握了话语权,实际内存频率,硬盘10进制,还有带宽的Mbps速率都是反逻辑的。另外电源的额定功率到底怎么算,也是一笔糊涂账。