V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
40
相关节点
 显示 35 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 92 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  
ddvswgg 关于在本地部署开源模型的一些问题请教
ddvswgg  •  159 天前  •  最后回复来自 CynicalRose
9
Vitta intel mbp 有办法用 gpu 给 ollama 提速吗
Vitta  •  159 天前  •  最后回复来自 Vitta
6
CNYoki ollama 本地模型 GPU 跑不满
CNYoki  •  179 天前  •  最后回复来自 clemente
12
Azure99 分享一下自己训练的大模型
Azure99  •  10 天前  •  最后回复来自 ibox163
54
qweruiop 求推荐能同时链接 chatgpt 和 ollama 的 webui
qweruiop  •  185 天前  •  最后回复来自 kangfenmao
3
whyorwhynot 支持不同显存显卡的推理加速框架
whyorwhynot  •  234 天前  •  最后回复来自 whyorwhynot
4
Tuatara 现在买 3090TI 玩 AI 靠谱吗
Tuatara  •  240 天前  •  最后回复来自 glouhao
91
wxd21020 配置小主机跑大模型
wxd21020  •  234 天前  •  最后回复来自 hootigger
83
jjyyryxdxhpyy 大佬们,求助本地部署大模型
jjyyryxdxhpyy  •  38 天前  •  最后回复来自 skykk1op
39
CoffeeLeak 折腾 Llama3 跑在 NAS...结果确实一言难尽
CoffeeLeak  •  260 天前  •  最后回复来自 lchynn
6
t41372 llama 3 发布了,我感觉挺猛的...
t41372  •  179 天前  •  最后回复来自 kangfenmao
12
xmtpw ollama run 报错请教大佬
xmtpw  •  151 天前  •  最后回复来自 finalsatan
4
smalltong02 对 Llama-3-8B 模型在指令跟随方面的测试。
smalltong02  •  264 天前  •  最后回复来自 qinfengge
16
1  2  3  4  5  
第 41 到 60 / 共 92 个主题
66 人收藏了这个节点
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2880 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 24ms · UTC 14:21 · PVG 22:21 · LAX 06:21 · JFK 09:21
Developed with CodeLauncher
♥ Do have faith in what you're doing.