有一个 16G 显存的显卡闲置,跑了几个模型,测试过一阵子了。
$ ollama list
NAME ID SIZE
llama3.1:latest 46e0c10c039e 4.9 GB
gemma2:latest ff02c3702f32 5.4 GB
deepseek-coder-v2:16b 63fb193b3a9b 8.9 GB
具体的任务是内容标题生成和翻译。
llama3.1 是 8b 参数,gemmma2 是 9b ,deepseek-coder-v2 是 16b 。
内容标题生成来讲,不是很能对比出差别。因为生成的标题即使有偏差也大差不差。但是对于翻译,需要一定的翻译质量。
对于翻译来讲 deepseek-coder-v2 > gemma2 > llama3.1 。
平时用到的翻译是 Bob 翻译+沉浸式翻译,用的还挺频繁的。
所以大家还有什么小一点的模型推荐跑一跑试一下?主要做一些小任务。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.