主要的问题是这些厂商,它的后台的模型并不总是用了它的主力的模型,会在后台降智。
智谱的这个 GLM 4.6 ,新出的 Minimax M2 ,一开始挺好的,服务一有压力就乱来。
只要这些模型出 token 的速度一提升,就知道开始降智了,用了次一档的东西。
造成的结果就是写出来非常烂的代码,写出来一个文件,每个函数都是错误的,然后我要给他擦屁股几个小时。
这太可怕了,浪费我的大量的时间,去给他他们的模型提供优化数据。
还不如老老实实消费 token 去。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.