100+全语种翻译 , 海量翻译数据,并且有速度要求。 有什么经济实惠的本地 LLM 方案么?

186 天前
 zzNaLOGIC

现在用的是谷歌的免费接口,鸡饭,质量很差。量又实在太大了用官方的大模型付费接口烧不起这个钱

1903 次点击
所在节点    Local LLM
11 条回复
wyntalgeer
186 天前
QWQ
hammy
186 天前
本地 llm 么,我也想知道
zzNaLOGIC
186 天前
@wyntalgeer QWQ 也是一样的,支持的语言种类有限,业务上基本覆盖了 150+语言,把偏门小语种全覆盖了基本
cwcc
186 天前
LLM 翻译有时候会被奇怪的道德和法律审查干掉,得先越狱或者调模型。不过并发大的话那还得负载,烧钱多跑。
jiaoguan1688
186 天前
谷歌免费接口不行吗?
mumbler
186 天前
gemma3.flashai.com.cn
gemma3 支持 140 种语言的翻译,flashai 支持文档翻译,本地离线翻译免费无限量
Immortal
186 天前
passive
186 天前
大多本地数张 H100 能跑起来的开源模型,连小语种的正常对话都做不到,说着说着就回到母语了。用来翻译不靠谱。
BinCats
186 天前
gemini ,免费。或者使用 grok ,目前有活动,充值 5 刀,每月送 150 刀额度,下月自动重置
zzNaLOGIC
186 天前
@jiaoguan1688 翻译质量太差了 时不时还来点乱码输出
paopjian
186 天前
100+这种还是买服务去吧, 有道这些应该有专门的对接人, LLM 模型靠 prompt 控制有风险的,

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1121916

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX