Anthropic Claude Sonnet 4 上下文 token 数提升至 100 万,提升了五倍

47 天前
 Qinnn

这个上下文长度有点强了,就是不知道超大上下文会不会也伴随着降智的问题。

2378 次点击
所在节点    程序员
5 条回复
MIUIOS
47 天前
鱼和熊掌不可兼得
sentinelK
47 天前
在其他因素均不变的情况下肯定有影响,因为更大的上下文,逻辑链路就更长,最优解的统计学优势就更不明显。
但反之,上下文的质量如果很高,那么结果应该会更好。

相当于是降低了下限,提高了上限。
Seck
47 天前
…………这么长的东西里面真的能找到重点?

现在的人根本没有能力处理这么大的输出,纯纯的骗傻子
sentinelK
47 天前
@Seck 这个“重点”其实是可以的。只要你给的上下文确实是有一个合理的最优解方向。因为从广义上讲,正确的上下文越大,其结果就越贴近于使用者的需求。

比如,之前的 GPT3.5 ,基于其上下文能力,你只能问一些语法等非业务问题。
但目前就可以问功能、问模块。

上下文再大一些可以问程序架构设计、跨项目的接口合理性规划等。这是一个循序渐进的过程。
所以上下文的扩展,其实是对使用者,以及周边配套程序(类似 Copilot 的搜索、 @workspace 功能)的上下文设计能力提出了更高的要求而已。

更大的上下文总是好的。
absx
47 天前
那么,代价是什么呢? https://www.anthropic.com/news/1m-context

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1151991

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX