我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个任务没关系了,就果断关掉这个 session 开个新的 因为 LLM 都有 lost in middle 问题,你给它输入长长的输入,不代表都能记住,1M context 不代表能比 200k 同等质量记住 5 倍长的东西 而且控制变量地比较一下,同类的更长 context 的模型这个现象似乎也没啥特别大的改善 不过已经过去两年了,说不定这个现象改善了
我个人体验是 claude 4 sonnet 目前的上下文是够用了,如果一个任务真的需要远大于 200k 的输入,我也不放心一次性交给 claude code 做(比如彻底重构一个项目?) 因为这样就完全 vibe coding 了,很容易堆屎山,还是人工拆成小任务再丢给它保险一点
|