Bmemes101
2020-12-06T08:02:43+00:00
同学明年去香港读研 主要是神经网络计算方向 需要高显存同时高算力的n卡 然后不知道怎么想的非要弄两张3060ti装一起[s:ac:喷]可能是觉得3080的10g不太够然后3090太贵了?装两张卡会不会在日后的使用中有一些问题?
[quote][pid=474179518,24507027,1]Reply[/pid] Post by [uid=62733545]浑元形意太极拳马保国[/uid] (2020-12-06 16:09):
自费搞科研/项目吗?[/quote]直博 每个月好像工资挺多的
单纯的炼丹炉是没问题的
只要你调教的好,这玩意和挖矿一样一排七八个都能用
cuda可以叠加,但是显存叠加不叠加要看软件,30系只有3090才有nvlink,能上还是尽量上,毕竟24G显存
[quote][pid=474180550,24507027,1]Reply[/pid] Post by [uid=39620484]JackieJacobs[/uid] (2020-12-06 16:13):
cuda可以叠加,但是显存叠加不叠加要看软件,30系只有3090才有nvlink,能上还是尽量上,毕竟24G显存[/quote]啊 是这样的吗 显存是不可以叠加的啊[s:ac:哭笑]那这两个3060ti还是8g有啥用
不如出三张3060ti的钱买一张3090,显存正好是8g的三倍
[quote][pid=474181883,24507027,1]Reply[/pid] Post by [uid=61163131]夜夜夜夜夜夜月[/uid] (2020-12-06 16:19):
不如出三张3060ti的钱买一张3090,显存正好是8g的三倍[/quote]道理是这样 就是3090着实太贵了[s:ac:哭笑]
[quote][pid=474182060,24507027,1]Reply[/pid] Post by [uid=39809004]落丘城下千岛湖[/uid] (2020-12-06 16:20):
道理是这样 就是3090着实太贵了[s:ac:哭笑][/quote]这代要多卡只能买3090,其他卡上都没有nvlink的接口
Reply to [pid=474182718,24507027,1]Reply[/pid] Post by [uid=39573377]炮炮飞[/uid] (2020-12-06 16:23)还没进学校呢 明年才去 现在还不是那边的学生[s:ac:哭笑]
[quote][pid=474183303,24507027,1]Reply[/pid] Post by [uid=61163131]夜夜夜夜夜夜月[/uid] (2020-12-06 16:25):
这代要多卡只能买3090,其他卡上都没有nvlink的接口[/quote]nvlink不是炼丹必须品,有当然更好啦....
深度学习的卡不是越贵越好的,你朋友想法还可以的。
之前泰坦x和1080ti算力就没区别,具体去找cuda算力表。
2个卡也是可以一起用的,有很多并行方法,网络并行和数据并行,但是比较折腾。
对于新手而言,同级别算力下单卡显存越高越好,
这里算力不是游戏帧数。
[quote][pid=474184736,24507027,1]Reply[/pid] Post by [uid=1248342]Ownest[/uid] (2020-12-06 16:31):
nvlink不是炼丹必须品,有当然更好啦....[/quote]原来如此,我还以为只有用了专门的连接器电脑才能认出sli
穷苦孩子没用过多卡……
泥潭有些回复真搞,深度学习不需要SLI也不需要NvLink。
双卡能跑,显存不叠加,但你可以把数据分发到两张卡上,不过你会面临数据分发不均衡的问题以及偶发性的bug,所以8G*2的整体会低于16G(但计算速度近乎翻倍,理论上3090算力也就3060ti的两倍)。当模型大到一个batch都跑不了的时候,你还得折腾模型拆解(遇到这种情况直接用云GPU吧,别把宝贵的实验时间浪费在这种琐碎的事情上)
所以建议就是钱不够就双卡,钱够了3090。