@
hellodigua 1. 全都存在 docs 里面,那 AI 的上下文会不会太大了
目前上下文信息是分散在 docs 的各个子文件夹下面了,除了指定强制阅读的文档外,其他都是通过 cursor 的 tools 搜索出来的。
可以认为现在通过 prompts 和 cursor 自带的 tools [grep ,context searching],实现了猴版的 “context engineering”.
如果过长的话。可以通过对单个文件内容的粒度进行控制,过大的文件拆分到更小的粒度里面。让 cursor 通过关键字查找、grep 等找到对应。
最完美的情况下,有一个上下文系统 Agent(context engineering) 给 Cursor 使用。cursor 可以索引出最相关的信息。
[The new skill in AI is not prompting, it's context engineering](
https://news.ycombinator.com/item?id=44427757)
[如何看待观点:AI 的关键点不是 prompt ,而是 Context Engineering ?](
https://www.zhihu.com/question/1923364519964545063)
2.本身 cursor 的上下文长度就是有限的,如果 prompt+文档的上下文过长,那留给 AI 思考的长度可能就不够了
我观察到过这个情况,目前 cursor 过长,会在一次请求里面重新开始思考。使用这个 prompts 的好处,就是已经写入的 context 不会丢失。
更好的办法应该是使用 MAX 模型