很意外的发现, kimi-k2 在 trae 中的表现超过了 gpt-5-high

12 天前
 winglight2016

自从 Claude 没有之后,我在 trae 里,一直用 gpt-5-high ,但是有两个问题难以解决,一个就是特别慢,另一个就是时间长了就变智障,连续四五次要求“继续”结果输出了两行注释,真是没法用。改成 kimi-k2 之后,发现速度够快,还的确能找准解决方案,然而很奇怪的一点:我用中文提示词,它的回复完全是英文,一点也不想中国公司的大模型。

1107 次点击
所在节点    程序员
9 条回复
TimPeake
12 天前
不不不,你注意观察就会发现 它是回复是英文中文随机飘。最近一个星期都在用。
xjzshttps
12 天前
我这几天也再试用 trae ,用的就是 kimi-k2 模型。
感觉这个不靠谱啊,一个小模块,很简单的二进制协议,要求是 google protobuf 序列化,只几个消息。
先和它聊好了确定了文档,甚至它生成的文档都已经有了协议消息格式。
然后重开对话让它按照文档去实现,跑了应该 1 个小时左右,完全稀烂的代码,我翻了发现根本没有能用的代码。
最离谱的是,它直接修改了需求文档,将原始的 google protobuf 定义的消息格式删掉了,改为了手工实现协议序列化。
xjzshttps
12 天前
@xjzshttps #2 需求文档里面被删的基本不剩什么了...
jamesjammy061
12 天前
不行吧,今天让他给 json 排个序都是乱的 132>1112
jamesjammy061
12 天前
glm4.6 感觉比 k2 好点,kimi-k2-thinking 不知道
winglight2016
12 天前
@TimPeake 确实,我也发现偶尔有中文回复,看起来跟 ChatGPT 很像,但是 ChatGPT 是反过来,大部分是中文,少数情况下就变成英文

@xjzshttps 我没用它来生成文档,因为我感觉 ChatGPT codex 更适合需求、设计文档的生成,国产模型不适合生成大段的文档,只用来修改 bug 还是不错的
cxe2v
12 天前
@jamesjammy061 #5 glm 使用下来给我的感觉就像班上使劲努力学习,但是成绩总是在中游的老实学生,不聪明,也不怎么出问题
hikarumx
12 天前
trae 国内版的 glm4.6 靠谱不? 会不会是阉割版的。
MuyuQ
11 天前
@xjzshttps 我去。需求实现不了,就改需求么。。。有点可怕。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1171819

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX