首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX
›
Local LLM
求助,做 AI 深度学习服务器跑大模型推理,选 RTX5080*2 还是一张 4090
duanrancosmos
·
8 小时 53 分钟前
· 401 次点击
价格来去基本不大,5080 一张显存 16G ,4090 一张 24G 。到底选哪个好,好纠结
RTX5080
显存
5 条回复
•
2025-02-12 19:32:14 +08:00
1
liu731
8 小时 53 分钟前
4090 保值率高点
2
yplam
7 小时 49 分钟前 via Android
双卡之间带宽是瓶颈,速度比单卡慢不少,并且用双卡跑要折腾,建议单卡 5090
3
Yadomin
7 小时 45 分钟前
4090 48G
4
murmur
7 小时 43 分钟前
4090 48 好像新改的,据说只有 linux 能发挥出来,前期还是慎入
5
sorry
7 小时 0 分钟前
选显存大的
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
1118 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 20ms ·
UTC 18:33
·
PVG 02:33
·
LAX 10:33
·
JFK 13:33
Developed with
CodeLauncher
♥ Do have faith in what you're doing.