目前哪个大模型适合本地部署用来纯翻译?

1 天前
 Noby

目前用的 qwen2.5:3b 设置本地浏览器的沉浸式翻译插件搭配 ollma 翻译,但是我的 m2 性能可能有些不太行,翻译还是要等一会。现在国内的大模型应该也有比较适合翻译,并且比较轻量的模型了,大家有什么比较好的推荐吗?或者更好的方案实现网页翻译。

2152 次点击
所在节点    Local LLM
23 条回复
wwhc
1 天前
Qwen3 30B-A3B ,可以直接部署到任何有足够内存的电脑,包括笔记本电脑,使用/no_think 参数生成 token 的速度应该能满足大部分需求
orzorzorzorz
23 小时 52 分钟前
直接下 ollama 上的 qwen3:14b-q4_K_M 或者 gemma3:12b-it-q4_K_M 。两者在 4060Ti 16G 下 no think 的表现挺好,至少体感下,速度快,也没那么多机翻感。
具体讨论可以看看这个 https://github.com/SakuraLLM/SakuraLLM/issues/136 ,能对比一下翻译效果。
5had0w
20 小时 34 分钟前
或许你可以试试 LibreTranslate ,这个不是 AI 模型,是纯翻译模型

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1142882

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX