发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 262 0 3 小时前
其实这事儿得从哥德尔的不完备性定理说起。简单来说,这个定理告诉我们:在任何一个足够复杂的逻辑系统里,总会存在一些在这个系统里无法被证明是对还是错的命题。换句话说,再严密的逻辑系统也有它的盲区。
这就意味着,任何基于逻辑和计算的人工智能,都不可能是“全知全能”的。哪怕你给它无限的计算能力,它也无法穷尽世界上所有的真相。因为问题本身就不只是算力够不够的事儿,而是从理论上就存在无法解决的部分。
一个真正“无所不知”的AI,需要的信息处理和存储能力,可能比整个宇宙能提供的还多。再加上现实世界中的传感器噪声、信息丢失、数据误差等等,AI根本不可能拥有对世界百分之百准确的认知。
更别说“道德”这种主观又复杂的东西了。道德不是一道能被完全计算出来的题,所以想要造出一个在所有情况下都做出“完美道德判断”的AI,几乎是不可能的。
所以,说到底,每个AI都会有它的局限性,都会犯错。  
那我们又何必对大语言模型(LLMs)感到失望呢?  
它们本就不完美,也从未承诺过完美。</br>
──── 0人觉得很赞 ────

使用道具 举报

它们是这样没错,但它们并不会按照一步步推导的方式来运算。
我们大多数人其实都做不到这一点。但大语言模型(LLM)有一种独特的视角来看待问题,理论上它们可以发现类似的思路:  
比如,你可以给它一个带有循环的程序,它不需要真的一步步执行这个循环直到永远 —— 像我们人类或传统计算机那样 ——  
它能直接分析循环的结构,把它和其他程序做对比,甚至在更高层次上推理出新的知识。
您需要登录后才可以回帖 立即登录
高级模式