你要是技术达人和AI爱好者的话,应该会更喜欢这样轻松、接地气的说法:说“没有内存”或者靠它来优化上下文,这其实不太准确。特别是在META这边,说法有问题:Llama 4 是在2025年4月发布的,它不同版本的上下文长度从100万个token(代号“Maverick”)到1000万个token(代号“scoout”)都有。你可以在这篇博客里看到:https://ai.meta.com/blog/llama4multimodalintelligence/就像其他人说的,上下文长度这玩意儿,其实对大多数任务来说并不是决定性因素。更关键的是你怎么微调模型,怎么用这些上下文。举个简单的例子你就明白了:你给模型配了个1000万token的上下文,但你又设置了重复惩罚。结果呢?一些常见词因为被惩罚了,模型就不敢用了。这样一来,上下文长度反而可能成了绊脚石。你看,是不是更容易理解了? |