各位大佬,深度学习是买一块3090呢还是买两3080ti啊?现在一个3090可以买2块3080ti了?

qwerks-avatar

qwerks

2021-08-30T01:35:48+00:00

各位大佬,深度学习是买一块3090呢还是买两3080ti啊?现在一个3090可以买2块3080ti了?

现在好像又贵了起来,我之前用的是1080ti,模型跑起来没多大问题。
Bohalo-avatar

Bohalo

你1080ti用的几块?我也准备用1080ti搞这个
qwerks-avatar

qwerks

Reply to [pid=546941790,28348422,1]Reply[/pid] Post by [uid=23445009]wzy1208apk[/uid] (2021-09-03 09:57)
单机目前只上了2块
unoffcaly.net-avatar

unoffcaly.net

[s:ac:哭笑]感觉两块好的多 只要是写习惯了多卡代码
qwerks-avatar

qwerks

Reply to [pid=546944016,28348422,1]Reply[/pid] Post by [uid=60186096]学有余力的同学[/uid] (2021-09-03 10:03)
同觉得,现在买一块3090,虽然是好点的旗舰hof,要18800接近1w9
两个3080ti才10599*2,除了以后二手可能没有3090好出外,跑程序估计能两倍的效率
Bohalo-avatar

Bohalo

[quote][pid=546942436,28348422,1]Reply[/pid] Post by [uid=60411760]zengraoli[/uid] (2021-09-03 09:59):

单机目前只上了2块[/quote]ok,我回头也再买一块
unoffcaly.net-avatar

unoffcaly.net

[quote][pid=546945012,28348422,1]Reply[/pid] Post by [uid=60411760]zengraoli[/uid] (2021-09-03 10:06):

同觉得,现在买一块3090,虽然是好点的旗舰hof,要18800接近1w9
两个3080ti才10599*2,除了以后二手可能没有3090好出外,跑程序估计能两倍的效率[/quote][s:ac:哭笑]怎么可能二手没有3090好出
虽然说3080ti的性能和价格和3080比没有优势,但是别人买二手也看性价比啊,肯定3080ti比3090好卖。
3090也没性能好这么多。。

多嘴问一句,你这个炼丹机是实验室/公司,还是个人啊[s:ac:哭笑]
aLAN Connection-avatar

aLAN Connection

感觉是不3090好一点啊,毕竟显存大一倍,最近拿2080ti炼丹batchsize只能跑2[s:ac:晕]
就看lz要不要跑大模型了
qwerks-avatar

qwerks

[quote][pid=546949608,28348422,1]Reply[/pid] Post by [uid=60186096]学有余力的同学[/uid] (2021-09-03 10:20):

[s:ac:哭笑]怎么可能二手没有3090好出
虽然说3080ti的性能和价格和3080比没有优势,但是别人买二手也看性价比啊,肯定3080ti比3090好卖。
3090也没性能好这么多。。

多嘴问一句,你这个炼丹机是实验室/公司,还是个人啊[s:ac:哭笑][/quote]现在3080ti也没涨多少啊,90倒是直接回到了高位了;我是个人的,实验室里面好多人用一台太慢了,打算自己配
qwerks-avatar

qwerks

[quote][pid=546951665,28348422,1]Reply[/pid] Post by [uid=60808262]HVSini[/uid] (2021-09-03 10:26):

感觉是不3090好一点啊,毕竟显存大一倍,最近拿2080ti炼丹batchsize只能跑2[s:ac:晕][/quote]我也不知道batchsize会有啥影响,难道不应该看显卡的cuda数量吗?我看rtx titan有24g内存,跟2080ti不相上下啊
MishaRO-avatar

MishaRO

Reply to [pid=546952941,28348422,1]Reply[/pid] Post by [uid=60411760]zengraoli[/uid] (2021-09-03 10:30)

cuda数量影响速度,batchsize看的是显存大小,存数据的
qwerks-avatar

qwerks

[quote][pid=546955892,28348422,1]Reply[/pid] Post by [uid=60808262]HVSini[/uid] (2021-09-03 10:38):

数据是load进显存的所以看显存吧……
两块80ti跟一块90都是24g,但多卡并行计算图会存两份(每张卡一张图)所以留给数据的显存会变少……
如果对刷点不敏感的话两张80ti并行效率会高很多,但90batchsize会高一些,可能更好涨点?(自己没配过丹炉,献丑了[s:ac:瞎])[/quote]啊,我是打算在两个卡上跑不同的任务,pytorch好像也可以分布式,但我不会配,按照目前1080ti上做的就是,单台机器上面用gpu0和gpu1分别跑不同的实验,但我感觉跟你说的并行好像还不一样吧
qwerks-avatar

qwerks

[quote][pid=546956977,28348422,1]Reply[/pid] Post by [uid=42133580]Emiya_Rin[/uid] (2021-09-03 10:41):

cuda数量影响速度,batchsize看的是显存大小,存数据的[/quote]那其实batchsize大一倍,速度也没提升多少吧?
qwerks-avatar

qwerks

[quote][pid=546956399,28348422,1]Reply[/pid] Post by [uid=61763475]阿肉肉ing[/uid] (2021-09-03 10:40):

90主要没有锁挖矿的,还有就是顶配优势,只有不差钱的人选[/quote]不差钱就直接买2*3090了啊,这么一看还是2*3080ti》3090啊
aLAN Connection-avatar

aLAN Connection

[quote][pid=546958122,28348422,1]Reply[/pid] Post by [uid=60411760]zengraoli[/uid] (2021-09-03 10:45):

啊,我是打算在两个卡上跑不同的任务,pytorch好像也可以分布式,但我不会配,按照目前1080ti上做的就是,单台机器上面用gpu0和gpu1分别跑不同的实验,但我感觉跟你说的并行好像还不一样吧[/quote]确实,那应该上80ti吧
aLAN Connection-avatar

aLAN Connection

[quote][pid=546952941,28348422,1]Reply[/pid] Post by [uid=60411760]zengraoli[/uid] (2021-09-03 10:30):

我也不知道batchsize会有啥影响,难道不应该看显卡的cuda数量吗?我看rtx titan有24g内存,跟2080ti不相上下啊[/quote]数据是load进显存的所以看显存吧……
两块80ti跟一块90都是24g,但多卡并行计算图会存两份(每张卡一张图)所以留给数据的显存会变少……
如果对刷点不敏感的话两张80ti并行效率会高很多,但90batchsize会高一些,可能更好涨点?(自己没配过丹炉,献丑了[s:ac:瞎])
Don Penguin-avatar

Don Penguin

[quote][pid=546952242,28348422,1]Reply[/pid] Post by [uid=60411760]zengraoli[/uid] (2021-09-03 10:28):

现在3080ti也没涨多少啊,90倒是直接回到了高位了;我是个人的,实验室里面好多人用一台太慢了,打算自己配[/quote]90主要没有锁挖矿的,还有就是顶配优势,只有不差钱的人选
jaejae-avatar

jaejae

cuda核心影响计算速度,显存大小:关系数据与模型,位宽:数据处理速度
正常来说2块3080ti,是要好于一块3090的。
Picapupxy-avatar

Picapupxy

深度学习的话 整3090不如整tesla
qwerks-avatar

qwerks

[quote][pid=546963170,28348422,1]Reply[/pid] Post by [uid=121753]神的弃儿[/uid] (2021-09-03 10:58):

cuda核心影响计算速度,显存大小:关系数据与模型,位宽:数据处理速度
正常来说2块3080ti,是要好于一块3090的。[/quote]了解,刚看了一下,这两个最后的折旧价还是差不多的,估计得选2*3080ti