我其实更关心的是结果能不能稳定重复。就拿ChatGPT这类模型来说吧,有时候同样的问题,在这台机器上回答对了,换台机器或者换个时间,答案又错了,挺玄学的。但一个厉害的数学家呢?人家靠的是逻辑推理,不管什么时候、在哪,只要题目一样,推出来的结果肯定也一样。所以你看,哪怕大模型再先进,现阶段还是得靠人盯着,不然出错的概率还是不小,除非哪天错误低到可以完全忽略。但如果我们真想搞出强人工智能(AGI),光这样可不行,得换种思路。我最近就在琢磨“世界模型”这块,试着让模型真正理解逻辑、学会推理,你有关注这方面吗? |
|