タマtama
2022-03-06T10:56:46+00:00
想当年GTX1080标准功耗才180W,性能爆杀980ti。当然制程从28到16纳米确实效果惊人。
当年笔记本的显卡第一次和台式机不相上下直接封神
可是随着20和30系显卡的推出,旗舰显卡功耗越来越大。笔记本因为体积和散热的需求只能大幅降功耗,性能又跟不上台式了。当然你可以说三星8纳米拉胯
但是听说40系4090甚至要600W,实在是太吓人了。照理说台积电5纳米不应该是永远滴神吗。
其实本来是对功耗不敏感的,但是留学党有木有办法估计只能升级40系笔记本,感觉性能又会和台式机拉出更大差距,总感觉没有10系的时候那种赢麻了的感觉。
泥潭没什么人信600瓦功耗,既然压根连实物都没有英伟达也没放一个屁,那就都别信了
A卡起来了呗。3090不定到350w找不回场子的。
使用先进的制程不是为了降低功耗,而是为了在同等面积下塞更多的晶体管。我觉得你得先明白这个大前提[img]https://img.nga.178.com/attachments/mon_201209/14/-47218_5052bc4cc6331.png[/img]
amd现在靠着台积电把性能拉上来了,老黄不堆规模就得跟水果amd抢台积电的产能,耽误挣钱啊。
哪會控制不住,看看amd控制得多好
1V都算在降壓呢,往上還能超1.1-1.2V,功耗也沒爆
10系卡老黃游刃有餘,根本沒胡亂加壓,打著能耗比的名義同時鎖功耗牆不給玩,才有這種省電的錯覺
30系不過是超過頭了,包含三星本來漏尿漏得離譜
tsmc 7nm造顯卡,在1.15-1.2V附近功耗一樣是巨幅成長,過了甜點電壓都是這副德性
按理说这次40系列用的台积电5nm,要达到3090的性能,有个200瓦出头应该够了吧
Reply to [pid=595108601,31028081,1]Reply[/pid] Post by [uid=33492286]ylgtx[/uid] (2022-03-12 19:30)之前泥潭有4070只需300瓦性能可超过3080我就已经觉得很扯淡了,你这个200瓦达到3090我更懵逼了[s:ac:呆]
[quote][pid=595109387,31028081,1]Reply[/pid] Post by [uid=39347133]在家研究外星人[/uid] (2022-03-12 19:35):
之前泥潭有4070只需300瓦性能可超过3080我就已经觉得很扯淡了,你这个200瓦达到3090我更懵逼了[s:ac:呆][/quote]3080公版tdp也才320,4070要是300才能打3080也太拉了
不提高功耗,性能上不去。遥想当年970、980更少的流处理器、低功耗高性能乱杀自家780、A家290的时候,NV突出一个无敌。
技术快到瓶颈了
14纳米到7纳米,提高100%,相对容易
7纳米到4纳米,提高100%不到,难
再下去4纳米到2纳米,2再到1,接近物理极限了,难度和成本也越来越高,过去的提升模式就越来越难以为继
但是市场需求还在,逼着企业拿出100%的提升来竞争,怎么办?我拿不出2纳米的东西,但我可以拿出两块4纳米的来,这样也提升了100%,但功耗也加了100%
当然这只是一个很粗略的模型,但理就是这个理
Reply to [pid=595110378,31028081,1]Reply[/pid] Post by [uid=62360698]TC-007[/uid] (2022-03-12 19:41)那就是我2B记错了,性能帖子我看太多了,结果肥欣说的对,英伟达啥都没说呢...
600W?不是说800甚至1000么?
600W这已经很低了啊
提高制程当然是为了塞更多的晶体管啊
低功耗只是一种余裕,资源够多的时候可以拿面积换功耗
首先第一个tsmc的16nm是20nm的一个衍生工艺(也就是苹果的A8独占的那个,但是20nm当初的良率和性能等各方面都不理想,所以只有苹果用了)也就是说16相对于28大概领先1.5个身位。三星那个8nm是个10nm节点的衍生工艺,下一代工艺是7nm 再下一代是5nm,所以这次N5P还是领先了8nm 1.5个身位。虽然表面上是这样了,但是最大的问题是这次nvidia要拿144sm的单die去打amd那边用多die方案直接规模+200%的芯片,所以就只能拉爆功耗去了,而实际上所谓的拉爆,估计也就是最多单卡500瓦的水平了,非公也许会有能拉到单卡700w水平的型号。但是那些动不动就开始开始吹整卡900瓦1000+w你买更大电源的,你可以自己考虑下,按现在3080Ti最大显存和其他杂七杂八的吃下去100瓦计算,芯片250-350w(对应350w-450w vbios)就已经差不多了。900瓦按照芯片750瓦计算你算算供电的引脚要多几倍,电压又要到多少。在AD102 144sm 64MB L2 384bit这个底裤都被扒干净的现在,这个芯片的整个封装底板又能有多大能供得起750瓦的电。这我还没算1000+瓦的说法呢。
总结就是:下一代显卡功耗提升是板上钉钉的事实,主要原因对于A家来讲就是芯片规模超出工艺水平的提升,对于N家来讲是为了进一步压榨性能,但是单卡600瓦的公版基本就到头了。
老黄舍得用台积电先进工艺,堆1万多个cuda,然后限死在1.5Ghz吗?
不可能的呀。
堆面积,又拉超高频,神仙工艺也救不了。
这和市场竞争有很大关系,上次功耗暴涨的年代,著名的战术核显卡gtx690和他的上一代gtx590都是功耗不亚于如今3090的显卡,也正是发生在红绿两厂上一次竞争最激烈的时期
有没有一种可能,控制住功耗就没性能了呢?
制程都已经接近极限了,边际效应明显,功耗和性能不能两全
中端卡还能有降功耗同时提升性能的机会,顶级卡就别想了