V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
pigzilla
V2EX  ›  NVIDIA

现在 2000 以内的预算,买啥 N 卡跑 AI 最划算?主要是测试各种 AI 相关的软件,大模型也会试试。

  •  
  •   pigzilla · 4 天前 · 2722 次点击
    38 条回复    2025-02-17 21:10:11 +08:00
    fskemp233
        1
    fskemp233  
       4 天前
    小黄鱼 32G 康康。大模型快慢你要先放一边了。
    renmu
        2
    renmu  
       4 天前 via Android
    加个 0 勉勉强强,要么就 2080 及其魔改版
    hertzry
        3
    hertzry  
       4 天前 via iPhone   ❤️ 1
    SXM2 的 V100 16G 加 PCIe 转接卡,2000 只能这样了。
    pixelbook
        4
    pixelbook  
       4 天前
    等 5060 吧
    gaobh
        5
    gaobh  
       4 天前 via iPhone
    这价位只能 2080ti 魔改
    xausky
        6
    xausky  
       4 天前
    2080ti 22g 魔改要么,我想出
    pigzilla
        7
    pigzilla  
    OP
       4 天前
    @xausky #6 抱歉,是公司测试买,需要发票的。
    pigzilla
        8
    pigzilla  
    OP
       4 天前
    感谢各位的意见。忘记提了,是公司测试用途买的,所以需要能开票的,闲鱼和各种魔改的方案都不行。

    我自己找了下淘宝的价格,好像只有 3060 12GB 的能符合。
    nocae
        9
    nocae  
       4 天前
    @xausky 什么价格老哥,我有意愿
    xausky
        10
    xausky  
       4 天前 via Android
    2080ti 22g 公版涡轮扇,某鱼价格 2500 左右,要的话 2400 顺丰包邮卖你,不管现存还是性能都比 op 选的 3060 好。
    @nocae
    nocae
        11
    nocae  
       4 天前
    @xausky 公版涡轮的就算了,我是打算装自己用的电脑上,通风不太够涡轮,😭
    zuotun
        12
    zuotun  
       4 天前
    两千块跑 AI 还要开票?没有这种东西,别说划算了,连门槛都够不着。
    mumbler
        13
    mumbler  
       4 天前   ❤️ 1
    2080ti 魔改 22G+洋垃圾 E5 准系统,大概 4000 元,能跑 99%开源项目的模型,deepseek R1 32B 能流畅跑

    生产力工具别省钱,宁可不吃饭
    Foxkeh
        14
    Foxkeh  
       4 天前
    租用云服务器算力吧,能开票
    lneoi
        15
    lneoi  
       4 天前
    对 租服务器吧
    macadurian
        16
    macadurian  
       4 天前
    4060Ti 16GB ,预算提升一下,4070
    paopjian
        17
    paopjian  
       4 天前
    这公司有点搞笑了, 2000 想搞 AI, CPU 乱七八糟的怎么办? 直接买服务吧, 要是两千万当我没说
    gouflv
        18
    gouflv  
       4 天前 via iPhone
    2000 看着少,但也别这么浪费,劝你们老板留着吃顿好的吧
    ferock
        19
    ferock  
       4 天前 via Android   ❤️ 1
    用下来,mac mini 性价比最高,可以流畅跑 14b ,可以跑 32b 一秒大概 4 、5token ,3600 的价格
    pwinner
        20
    pwinner  
       4 天前 via iPhone
    2000 建议吃顿好的,或者调硅基流动之类推理平台的 api ,本地推理要么建议找台有 avx512 的电脑多插点内存用 cpu 推理到天荒地老
    leo72638
        21
    leo72638  
       4 天前 via iPhone
    2000 还要票,建议云上跑吧,买 N 卡真是门槛都够不着
    pigzilla
        23
    pigzilla  
    OP
       3 天前
    @Foxkeh #14
    @lneoi #15

    感谢建议。不过我们需要测试和调试底层驱动的东西,所以云服务不行。

    另外,我发现大部分回复者都挺搞笑,属于一班只懂个皮毛就尾巴翘上天的:

    第一阅读能力不行:我已经写的很清楚了,“主要是测试”,而不是跑生产应用;“大模型也会试试”,而不是专跑大模型。

    第二对 AI 的理解极为偏执:以为 AI==LLM ,以为 AI==上层的应用。实际上 AI 的应用类型极多,涉及到的也是整个系统——硬件+OS+驱动+系统库+应用库+AI 框架+应用...,训练和推理场景也有很大差别。不是所有 AI 人的工作都是搞个上层应用包装个 LLM 来对话。在你们心里面,底层的那些东西都是货架上刷新出来的么?

    第三以为所有东西都要靠堆钱来解决。实际上 2000 以内 N 卡 3060 12G 可跑 DS-R1 14b(9GB),用来测试绰绰有余。我们还要测 Intel Arc A770 (一样 2000 以内),同样也是为了了解不同方案的表现和性价比。更不用说清华最近那个新的突破了(虽然还是要 24G 显存,但谁说未来不能更小?)
    norland
        24
    norland  
       3 天前
    算了,还是建议楼主有机会换个公司吧。
    w568w
        25
    w568w  
       3 天前
    @pigzilla #23 楼主具体描述一下需求?

    1. AI 到底是指哪一类?下到单片机几十 MB 内存跑 YOLO ,上到几千张 H100 集群跑 LLM 预训练都叫「 AI 」…

    2. 面向的场景是什么?单机部署模型?端侧推理?还要调试底层驱动,是做 NPU 开发?
    joyhub2140
        26
    joyhub2140  
       3 天前
    这个预算还不如租用云厂商的 GPU 资源。
    MacsedProtoss
        27
    MacsedProtoss  
       3 天前 via iPhone   ❤️ 1
    @pigzilla #23 这个定义你要说就早点说 描述啥都没有在这里让人猜吗?现在语境里谁不是默认 ai=大模型?
    GGMM
        28
    GGMM  
       3 天前   ❤️ 1
    1 、如果看 GPU ,买显存最高的版本,可以不关注算力。那可能就是 3060 12g 或者 4060 16g ,后者会超预算。
    2 、如果是推理,不训练,可以看看一些计算棒( NPU )或者换 CPU
    ccys
        29
    ccys  
       3 天前
    @xausky 多少钱
    jamos
        30
    jamos  
       3 天前   ❤️ 1
    3060 12G ,14B 我这边跑不起来,直接回退到使用 cpu 的,非常慢
    JensenQian
        31
    JensenQian  
       3 天前
    2000 块钱
    买个 4060 打游戏都觉得垃圾
    跑 ai 加点钱吧
    至少怎么也得 4070ti super 这种卡吧
    JensenQian
        32
    JensenQian  
       3 天前   ❤️ 1
    @JensenQian 常见显卡给你看下
    来源 https://www.bilibili.com/video/BV1ogAKe3EAb/
    2000 预算买个 100 瓦的 4060 打游戏都觉得不太行真的
    老黄现在显卡感觉没个 5000 块都没法入门了感觉

    ![]( )
    ![]( )
    roygong
        33
    roygong  
       2 天前 via iPhone
    直接租服务器,放弃本地跑大模型的幻想。不过这预算真要租服务器跑大模型,估计一周也就花完了。
    pigzilla
        34
    pigzilla  
    OP
       2 天前
    @GGMM #28 感谢。这个的确和我自己找的信息一致。

    @jamos #30 能详细说说吗? DS-R1 14b 的容量我看 ollama library 上不是 9GB ,足够载入显存吗?你跑不起来是显存不够还是速度太慢还是别的问题?不过这对我也不是啥问题,14b 不行可以拿 8b 、7b 的测试。
    pigzilla
        35
    pigzilla  
    OP
       2 天前
    铜币已送给有建设意义回复。谢谢各位。
    kloseWu
        36
    kloseWu  
       2 天前
    2000 的话只能上 P40 了
    xyfan
        37
    xyfan  
       2 天前   ❤️ 1
    你自己不把需求说清楚还在这指责别人,还说“14b 不行可以拿 8b 、7b 的测试”,那你直接用 1.5b 不就行了,2G 显存都能跑,买个 GTX750 亮机卡也能测试。
    Bom
        38
    Bom  
       2 天前
    +1
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1193 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 23:16 · PVG 07:16 · LAX 15:16 · JFK 18:16
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.