用ChatGPT和其他大模型用得越多,我就越开始怀疑,我们是不是太滥用“智能”这个词了?
当然,它们确实很实用,我每天都在用。但很多时候,它们的表现更像是在做预测,而不是真正的思考。它们并不像人类那样真正“理解”上下文,在需要常识的问题上,基本都会翻车。
所以我就在想,如果这还称不上真正的智能,那下一步应该怎么走?是不是需要比Transformer更牛的架构?还是得靠更强的多模态推理能力?
我挺想知道大家怎么看的:我们到底是在通往通用人工智能(AGI)的路上,还是说我们只是在打造一个更高级的“自动补全”工具? |
|