Trek
2025-06-13T01:38:38+00:00
最近老婆的科研经费下来了,准备配一台跑各种算法,以后可能跑ai大模型的pc,采购平台上5090的价格可以买两张5080了,那能用两张5080代替5090么?
[quote][pid=828640649,44426319,1]Reply[/pid] Post by [uid=12792849]KPX[/uid] (2025-06-21 09:43):
只是推理的话可以。训练的话可能PCIE带宽不够[/quote]彦祖请问下pcie带宽是和芯片组绑定的么,还是好点的显卡带宽也能高些?
科研经费专款专用不打游戏的话,那就用服务站和准系统吧,不管什么角度游戏卡用来做研发都有很多缺陷
[quote][pid=828641466,44426319,1]Reply[/pid] Post by [uid=66758784]flyerno1[/uid] (2025-06-21 09:51):
科研经费专款专用不打游戏的话,那就用服务站和准系统吧,不管什么角度游戏卡用来做研发都有很多缺陷[/quote]主要是使用者是跨专业的,编程都是自学的,感觉不用Windows学习成本比较高,短期内玩不明白[s:ac:瞎]
Reply to [pid=828641180,44426319,1]Reply[/pid] Post by [uid=42886397]未尝一败纳尔逊[/uid] (2025-06-21 09:48)
民用机一共也就24条PCIE通道能用,纠结那么多干嘛,高级点显卡能用PCIE5自然能高点。
先搞清楚要干什么再去纠结这些细节,否则一律推荐线程撕裂者/EPYC/Sapphire Rapid及以上
[s:ac:哭笑] 然后显卡产品线也是看你干嘛,比如我之前玩入门分子动力学就不吃FP64也不吃显存,加钱上专业卡纯粹浪费,游戏卡才是最优
如果只是学习用,用tensorflow或者pytorch跑一些培训教材里面的例子,自己动手搭一下环境,了解大模型训练,微调,推理这些过程,64G的内存加一张5080甚至5070ti肯定足够了,等到要真刀真枪写课题或者产出的时候再投入
如果确实是本地人员跑大模型,稍微等一等
AMD的32g显存r9700七月上了,这卡定位就是个人ai使用者的卡而且可以四卡一起用128g显存
单卡价格说什么都比5090低,目前推测可能是一万出头,当然如果你是要ai画图那还是n卡
5080 的显存容量和带宽都是 5090 的一半,实际跑起来 ai 基本也就是 5090 的一半。考虑到两张卡之间的通信开销,肯定是不如单张 5090 的
没懂为什么会想要考虑两张 80 这种方案[s:ac:哭笑]要说能成为备选方案的话,4090 48g 或者多张 3090 才是和 5090 对比考虑权衡的
[quote][pid=828642536,44426319,1]Reply[/pid] Post by [uid=12792849]KPX[/uid] (2025-06-21 10:01):
[s:ac:哭笑] 然后显卡产品线也是看你干嘛,比如我之前玩入门分子动力学就不吃FP64也不吃显存,加钱上专业卡纯粹浪费,游戏卡才是最优[/quote]她之前博士研究方向是lstm模型、遗传算法结合传统工科的跨专业研究,现在毕业了新研究方向应该也是类似的,但具体是什么还没定好。说实话我也不太搞得懂她需要什么样的电脑,目前就想配台主要跑算法,但兼顾一些通用性的。至于游戏可以不太考虑,我现在游戏主机是4070s,还算够用没啥换的想法。
Reply to [pid=828644533,44426319,1]Reply[/pid] Post by [uid=42886397]未尝一败纳尔逊[/uid] (2025-06-21 10:21)
跨专业=骗经费,但是能快发文章就好。 任何时候一张卡都好于两张。
Reply to [pid=828644533,44426319,1]Reply[/pid] Post by [uid=42886397]未尝一败纳尔逊[/uid] (2025-06-21 10:21)
看着也就tensorflow和pytorch,按7L推荐吧。
然后,个人机器跑LLM推荐先不要做梦了,没什么实用意义
[quote][pid=828642906,44426319,1]Reply[/pid] Post by [uid=66758784]flyerno1[/uid] (2025-06-21 10:05):
如果只是学习用,用tensorflow或者pytorch跑一些培训教材里面的例子,自己动手搭一下环境,了解大模型训练,微调,推理这些过程,64G的内存加一张5080甚至5070ti肯定足够了,等到要真刀真枪写课题或者产出的时候再投入[/quote]是的,我就想着她研究方向还没定,买台通用显卡+通用cpu的电脑以后各种需求都多多少少能满足一些,以后有专用需求有以后的经费嘛[s:ac:闪光]
Reply to [pid=828642536,44426319,1]Reply[/pid] Post by [uid=12792849]KPX[/uid] (2025-06-21 10:01)
实验室助理研究员抢不到液相,于是教授买了个液相过来; 后来抢不到流式,这个比较贵他就没开口说买
[quote][pid=828644770,44426319,1]Reply[/pid] Post by [uid=64586638]octonions[/uid] (2025-06-21 10:23):
跨专业=骗经费,但是能快发文章就好。 任何时候一张卡都好于两张。[/quote]哈哈哈是的,现在无论什么学科结合算法ai什么的都好发文章
[quote][pid=828644858,44426319,1]Reply[/pid] Post by [uid=12792849]KPX[/uid] (2025-06-21 10:24):
看着也就tensorflow和pytorch,按7L推荐吧。
然后,个人机器跑LLM推荐先不要做梦了,没什么实用意义[/quote]好的谢谢大佬
Reply to [pid=828645276,44426319,1]Reply[/pid] Post by [uid=42886397]未尝一败纳尔逊[/uid] (2025-06-21 10:28)
遇到个清华的博士,他说他们就上模型,有结果了实验一起做;文章框架一边做一边写也大差不差反正都一类,三四个月就能水一篇论文
[quote][pid=828642906,44426319,1]Reply[/pid] Post by [uid=66758784]flyerno1[/uid] (2025-06-21 10:05):
如果只是学习用,用tensorflow或者pytorch跑一些培训教材里面的例子,自己动手搭一下环境,了解大模型训练,微调,推理这些过程,64G的内存加一张5080甚至5070ti肯定足够了,等到要真刀真枪写课题或者产出的时候再投入[/quote]好的谢谢大佬,那还是先配台单卡的。能顺便问问cpu是配消费级好还是服务器cpu好么?
Reply to [pid=828645665,44426319,1]Reply[/pid] Post by [uid=42886397]未尝一败纳尔逊[/uid] (2025-06-21 10:31)
最好是看用啥软件去订制硬件,工作用的电脑和家用不一样,工作用的是硬件伺候软件
必要时候可以问软件客服去推荐硬件
我总想起以前实验室的一个大型软件,需要指定Linux版本号,C/C++和py版本,哪个不对就崩给你看