chiakii
2022-06-22T19:50:12+00:00
海盗船Ax1600i有更新计划吗,目前自用一张3090深度学习,感觉捉襟见肘,下半年打算出掉换两张4090,估摸着要换电源了
我现在用的HX1200w,看了下只有AX1600i能升级了,但是这电源好像已经快五年了,怕买了以后出新款,请问各位大佬建议入吗
[quote][pid=620081145,32422379,1]Reply[/pid] Post by [uid=739876]satangel006[/uid] (2022-06-23 08:42):
要不你看看酷妈白金2000[s:ac:吻][/quote]白金 钛金 不是一个档次的。
除了更新新的线材支持,我实在难以想象ax1600i再做新的能有什么提升,功率都不好提升啊,毕竟是美国产的,那边才110v,最高也就做到1600,再往上要换插头接口了,傲慢的美国老百姓才不会惯着他,这电源真他妈顶啊,200w以上就能达到94%的转化率,800w以内风扇都不带转的
[quote][pid=620083148,32422379,1]Reply[/pid] Post by [uid=63147071]好像骑鸭鸭[/uid] (2022-06-23 08:52):
你要笑死我么 深度学习买4090。。。[/quote]你要笑死我么 自己用不买4090买H100?
大功率电源都是被制造的焦虑,刚入了1000W电源,感觉就是智商税
[quote][pid=620087990,32422379,1]Reply[/pid] Post by [uid=60240960]harry_1144[/uid] (2022-06-23 09:14):
你要笑死我么 自己用不买4090买H100?[/quote]哈哈 你这也太水了
即使是2022年 跑深度学习的主力也不是a100
[quote][pid=620088812,32422379,1]Reply[/pid] Post by [uid=63147071]好像骑鸭鸭[/uid] (2022-06-23 09:18):
哈哈 你这也太水了
即使是2022年 跑深度学习的主力也不是a100[/quote]很简单 因为穷
个人和单位有钱的话如果能上A100会有人不上?
[quote][pid=620090079,32422379,1]Reply[/pid] Post by [uid=60240960]harry_1144[/uid] (2022-06-23 09:24):
很简单 因为穷
个人和单位有钱的话如果能上A100会有人不上?[/quote]不是。。。
这玩意要的是兼容性加稳定,老黄软件更新太慢,新版一堆bug
我有一块3082,验证别人的模型经常报框架不支持,修一下就得两三天
顺便加一句 其实电源换g20再买张3090很合适 加起来1w以内能搞定
[quote][pid=620090911,32422379,1]Reply[/pid] Post by [uid=63147071]好像骑鸭鸭[/uid] (2022-06-23 09:27):
不是。。。
这玩意要的是兼容性加稳定,老黄软件更新太慢,新版一堆bug
我有一块3082,验证别人的模型经常报框架不支持,修一下就得两三天[/quote]奥…配套CUDA确实落后新卡1-2个季度
308012有问题应该也是这个原因
我们公司的3090和A100用的毫无问题