AI 本地化部署的方式

2 天前
 wenkgin

最近在尝试本地化部署 AI ,用了 ollama+dify ,只是简单的试用了下,感觉还行,能完全在离线环境安装使用。

想问问老哥们的方式有哪些,我都想试试对比一下

2293 次点击
所在节点    Local LLM
32 条回复
byby
2 天前
都半斤八兩,最後都要老老實實上 api
songyoucai
2 天前
超微 7049 128g 内存 2080ti22g * 2 pve+Ubuntu + vllm 部署了 千问 30b
SGL
2 天前
本地化部署的是不是都是“弱智”AI ,有实际应用价值不
totoro52
2 天前
多少 B 的? 本地部署大语言模型纯降智成智障,还不如接 api 真的,花点钱还省了多少电费
davidyin
2 天前
在 16G 内存的 i5 6500 上跑过 十几 b 的模型,反应速度还行。
visper
2 天前
本地就 ollama 玩玩就行了啊。又或者 xinference 之类的可以部署其他格式的模型。
chiaf
2 天前
本地聊天的那种没意思。

生成图片视频的还不错,但是对设备的要求太高
justtokankan
2 天前
用来做量化交易用应该不错吧
sdwgyzyxy
2 天前
cnb 每个月可以白嫖 1600 核时,h20 的 gpu ,可以跑 gpt-oss:120b ,挺好的
wenkgin
2 天前
@byby 很多场景还是需要本地化的(涉密信息、能完全控制 api 的方式以后停用、收费),设备不用担心有需要就肯定有钱买,主要是看 ai 模型的效果如何
wenkgin
2 天前
@visper 我现在玩的就是 ollama 感觉可用性太低了,我电脑性能也不太行
wenkgin
2 天前
@davidyin 也是用的 ollama 吗
wenkgin
2 天前
@totoro52 qwen3:4b ,测试用的 我只是验证可行性
youtubbbbb
2 天前
本地部署的意义是什么?即使你有隐私的考虑,租服务器也好很多
wenkgin
2 天前
@youtubbbbb 有些涉密内容的知识库或者公司内部的一些东西,不能公开的
silomrelephant
2 天前
8b 可以稳定工具调用了,20b oss 能用用。硬件可以考虑 ai pc ,32g 统一大内存足够,2/4 通道板载内存速度够用。
wenkgin
2 天前
@silomrelephant 我这够吗?
<img src="https://i.mji.rip/2025/09/12/876a350e56245a7659d2ca98b33874d8.png" alt="876a350e56245a7659d2ca98b33874d8.png" border="0">
wenkgin
2 天前
@silomrelephant 搞了半天这个应该能是图片了吧
https://imgur.com/a/aX4bsr3
wenkgin
2 天前
wenkgin
2 天前

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1158786

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX