V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 222 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10 ... 12  
MimicOctopus 请教模型部署和管理的问题
MimicOctopus  •  2025 年 3 月 29 日  •  最后回复来自 Legman
4
crac ubuntu + 双 N 卡 本地部署 DS-R1,性能优化请教
crac  •  2025 年 4 月 1 日  •  最后回复来自 crac
6
villivateur 本地部署 LLM 并启用网络搜索,有什么现成的方案吗?
villivateur  •  2025 年 3 月 25 日  •  最后回复来自 coefuqin
5
mcsddjyd Deepseek R1 671B 本地部署方案
mcsddjyd  •  2025 年 4 月 27 日  •  最后回复来自 businessch
15
xiniu 跑 AI 模型,显卡的购买咨询
xiniu  •  2025 年 3 月 22 日  •  最后回复来自 Foxii
23
littlemis 请问此配置如何加速 ollama ds-r1 32b 的速度,好慢
littlemis  •  2025 年 3 月 18 日  •  最后回复来自 littlemis
4
zcm3579 如何估算一个大模型需要用到什么性能配置的硬件?
zcm3579  •  2025 年 3 月 19 日  •  最后回复来自 ChristopherY
16
ZimaBlueee A30 显卡-24G 显存,推荐部署什么大模型呢
ZimaBlueee  •  2025 年 3 月 28 日  •  最后回复来自 hefish
8
xkeyC 开发了个本地实时字幕 (Whisper + LLM api ) 软件,开源
xkeyC  •  2025 年 3 月 17 日  •  最后回复来自 xkeyC
2
feelapi ollama 支持的一些模型测试结果
feelapi  •  2025 年 3 月 13 日  •  最后回复来自 coefuqin
6
libasten 100 多号人的企业,想自己部署 deepseek,硬件要哪些?
libasten  •  2025 年 3 月 11 日  •  最后回复来自 tamshy
5
1  2  3  4  5  6  7  8  9  10 ... 12  
第 81 到 100 / 共 222 个主题
240 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3934 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 30ms · UTC 00:07 · PVG 08:07 · LAX 16:07 · JFK 19:07
♥ Do have faith in what you're doing.