目前哪个大模型适合本地部署用来纯翻译?

56 天前
 Noby

目前用的 qwen2.5:3b 设置本地浏览器的沉浸式翻译插件搭配 ollma 翻译,但是我的 m2 性能可能有些不太行,翻译还是要等一会。现在国内的大模型应该也有比较适合翻译,并且比较轻量的模型了,大家有什么比较好的推荐吗?或者更好的方案实现网页翻译。

3314 次点击
所在节点    Local LLM
23 条回复
Noby
56 天前
中英翻译,有时候需要中俄翻译
DefoliationM
56 天前
有点难,轻量的效果很差,还不如谷歌翻译。workers ai 有免费的翻译模型,你可以先试试,真不如谷歌翻译。
newyangnc
56 天前
qwen 已经够用了
Rennen
56 天前
沉浸式翻译自带的智谱 GLM 也不错吧
neteroster
56 天前
随便搞个豆包 seed 1.6 用就完了,他这个是阶梯定价,输入短便宜的不行,翻译只要是 llm 而且不太小的模型都差不到哪去
djv
56 天前
用 API 就好了, 不想花钱就用智谱
glm-4-flash
glm-4-flash-250414
glm-4v-flash
glm-z1-flash
这几个是免费
glm-4.1v-thinking-flash
glm-4.1v-thinking-flashx
可领免费额度的
或者新用户也有普适的免费额度
killadm
56 天前
试换成 qwen3 试试有提升不
我只用过本地部署的 17b 和 30b ,/nothink 条件下中英效果比 google 好多了。
yuchenr
56 天前
yjd
56 天前
使用体验,在线 Qwen2.5-7B-Instruct 确实国产 AI 可能语料原因。翻译要比国外的 ai 翻译要好。
fredweili
56 天前
openrouter 上有免费的 30BA3B 用,还有是 ollama
hoythan
56 天前
要是 API 都能接受直接用谷歌翻译接口不就行了。人家底层也有 Ai 参与
yidinghe
56 天前
如果 3b 的翻译质量能满足你的要求,那完全可以换成免费 API 来用。
yisheyuanzhang
56 天前
我们生产使用的小米开源的 GemmaX2-28-9B ,翻译效果和速度不错。 优势是小语种对比同规模的通用模型效果好很多

本地受限于性能的化可以看看 2B 或者 2B 量化模型
https://huggingface.co/ModelSpace/GemmaX2-28-2B-v0.1
hwdq0012
56 天前
reddit 的翻译不知道是什么模型可以关注一下, 分不清是贴吧里的网友不审歪果仁了都
anghunk
56 天前
目前谷歌翻译好像改进了一些算法,质量比之前好太多,而且速度比 api 快多了
kero991
56 天前
隔壁有人作了一个翻译模型,可以去看看

最新版 WiNGPT-Babel-2 终于发布了
https://linux.do/t/topic/711029


模型地址 https://huggingface.co/winninghealth/WiNGPT-Babel-2
还有专门为手机部署准备的 AWQ 量化版 https://huggingface.co/winninghealth/WiNGPT-Babel-2-AWQ
似乎是用 gemma-2-2b 作为基础模型来训练的,确实很多翻译模型的基础都是这个。
2b 模型,肯定是不用考虑硬件问题的
openmynet
56 天前
glm-4 是真心拉,免费量大管饱的也就 mistral small 了,限制就是 RPS=1 ,tpm=5m
leeg810312
56 天前
还是觉得在线模型翻译更方便,不占用本地资源。轻量和质量只能取舍,现在觉得本地折腾太麻烦了,翻译不好还得自己校对。
07H56wMvTJUc4rcf
56 天前
部署在自己脑子里算本地部署吗
yyzh
55 天前
@hwdq0012 reddit 那个的确感觉超级强.

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1142882

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX