V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
duanrancosmos
V2EX  ›  Local LLM

求助,做 AI 深度学习服务器跑大模型推理,选 RTX5080*2 还是一张 4090

  •  
  •   duanrancosmos · 8 小时 53 分钟前 · 401 次点击

    价格来去基本不大,5080 一张显存 16G ,4090 一张 24G 。到底选哪个好,好纠结

    5 条回复    2025-02-12 19:32:14 +08:00
    liu731
        1
    liu731  
       8 小时 53 分钟前
    4090 保值率高点
    yplam
        2
    yplam  
       7 小时 49 分钟前 via Android
    双卡之间带宽是瓶颈,速度比单卡慢不少,并且用双卡跑要折腾,建议单卡 5090
    Yadomin
        3
    Yadomin  
       7 小时 45 分钟前
    4090 48G
    murmur
        4
    murmur  
       7 小时 43 分钟前
    4090 48 好像新改的,据说只有 linux 能发挥出来,前期还是慎入
    sorry
        5
    sorry  
       7 小时 0 分钟前
    选显存大的
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1118 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 20ms · UTC 18:33 · PVG 02:33 · LAX 10:33 · JFK 13:33
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.