请问速度跟翻译准确度都不错的大模型推荐

10 天前
 littlemis

目前想要批量翻译 5000 个文件到 10 国语言 请问用哪个平台跟大模型比较推荐,谢谢!

目前用 deepseek r1 ,但好慢跟幻翻译

1093 次点击
所在节点    问与答
17 条回复
thorby
10 天前
单纯翻译,肯定 deepl 最快最方便,不用等过程
hammy
10 天前
其实也不需要非要 ai 把,传统的神经网络翻译 mt 就可以了
misaka19000
10 天前
gpt 就可以,或者 Gemini
liu731
10 天前
o4-mini 就行
neteroster
10 天前
Gemini 2.5 Flash (思考关闭), DeepSeek V3 0324
mumbler
10 天前
我们的经验是,gemma3 翻译最好,4B 可用最快,12B 更高质量,27B 与 12B 差距不大
msg7086
9 天前
Gemini 2.5 Pro 和 Claude 都是第一梯队。用不起的话 Gemini 2.5 Flash 也还可以。
yinmin
9 天前
deepseek 是思考模型不适合翻译,翻译要用 deepseek v3
yinmin
9 天前
deepseek r1 是思考模型不适合翻译,翻译要用 deepseek v3
msg7086
9 天前
@yinmin 我是长期在用 ds v3 的,翻译准确度来说我觉得还是堪忧,翻译过程中各种省略内容,一篇文章翻完就剩半篇的量了。遣词造句比其他模型强,大概是用了很多中文语料,但是如果希望准确翻译的话我觉得不太行。
littlemis
9 天前
谢谢大佬们! 我使用 o4-mini 、gemma3 、Gemini 2.5 Pro 来测试
idblife
9 天前
@littlemis
期待测试结果
V2yr
9 天前
坐等更新测评
sickoo
9 天前
gemini 2.5 Pro 稳稳的 T0 ,或者可以用字节飞书内置的翻译
littlemis
9 天前
ollama 的本地 llm 测试结果都非常差
只有用云端 api 的版本好,目前用 gpt4.1 效果跟 cp 值还算不错
unclemcz
8 天前
本地模型的话 qwen3:14b 以上就挺不错了,如果觉得速度慢就关闭思考模式,nothink 模式速度有巨大提升。ds-r1 用来做翻译不适合,思考太多,加料太多,太自以为是了。
如果文档不敏感,那就直接用 api 吧,质量速度都有保证。
bbsingao
4 天前
现在正在用 qwen3:32B api,nothink 模式,不过看网页感觉和 7B 也没啥区别。 也许长文本会有差距吧。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1136948

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX