有没有大佬用过oculink外接显卡跑ai模型

Fool.Inc-avatar

Fool.Inc

2025-09-15T01:52:05+00:00

情况有些复杂,家里有张3090,正好我需要自己跑一些ai模型,同时正好又要买新笔记本,就寻思买个便宜点的笔记本外接显卡跑ai。
于是看中来酷pro14,带oculink,国补之后三千出头。之后显卡坞六百,再买一张亮机卡和电源替换家里的3090,总花费不到五千。感觉比买一个高配笔记本划算不少。另外因为一年外出次数也不少,外出的时候不用跑模型,所以目前不打算配台式。
所以问问泥潭的大手子,有没有用过oculink跑ai,使用体验如何,如果体验太差,还是买个配中端显卡的游戏本好了[s:ac:晕]
JayyGrizz-avatar

JayyGrizz

文本/画图/语音/视频?

反正语言模型的话,只有模型加载的时候是吃带宽的,加载完以后实际计算的以后总线数据量很少。走什么都没啥影响,买个USB线的3.0×1挖矿分拆器都行

现在淘宝上Gemini Pro会员不过几十块钱,感觉没啥必要
Ryx-avatar

Ryx

看4090m的oculink,跑timespy已经是4080m水平了,损耗肯定是有的,就看取舍了。
Fool.Inc-avatar

Fool.Inc

[quote][pid=841238760,45175745,1]Reply[/pid] Post by [uid=12792849]KPX[/uid] (2025-09-22 09:57):

文本/画图/语音/视频?

现在淘宝上Gemini Pro会员不过几十块钱,感觉没啥必要 [/quote]跑一些实验室的数据集。不是常用模型
0led-avatar

0led

正好有人测过oculink跑LLM
[url]https://www.hardware-corner.net/guides/mini-pc-with-oculink/[/url]

[img]https://img.nga.178.com/attachments/mon_202509/22/9aQ2w-fp25K1mT3cSsg-e3.jpg[/img]
JayyGrizz-avatar

JayyGrizz

Reply to [pid=841239638,45175745,1]Reply[/pid] Post by [uid=40652054]WolfGrandm[/uid] (2025-09-22 10:02)

到底是训练还是推理。

不过单卡情况下都不怎么吃PCIE带宽,独显显存带宽高移动版一大截,看你需求随便 [s:ac:哭笑]
Fool.Inc-avatar

Fool.Inc

[quote][pid=841240371,45175745,1]Reply[/pid] Post by [uid=60687184]某科学的9[/uid] (2025-09-22 10:07):

正好有人测过oculink跑LLM
[url]https://www.hardware-corner.net/guides/mini-pc-with-oculink/[/url]

[img]https://img.nga.178.com/attachments/mon_202509/22/9aQ2w-fp25K1mT3cSsg-e3.jpg[/img][/quote]已经很够用了,谢谢老哥
0led-avatar

0led

手上正好有个来酷Pro14,只不过最近没有买oculink的欲望[s:ac:哭笑]
然后在机子的bios也挺一言难尽,大毛病没有小毛病一丢丢,不过日常带着上班是够了