发帖
 找回密码
 立即注册
搜索
4 0 0
日常闲聊 631 4 5 天前
https://www.astralcodexten.com/p/ 那个懂你艺术的人是谁?
──── 0人觉得很赞 ────

使用道具 举报

人有局限性,AI也有局限性。  
当然,这两者的局限不一样。但问题是,有局限并不代表就“理解不了东西”。  不过话说回来,要想把这个话题聊出结果,咱们得先对“理解”这个词有个共识。可问题就出在这儿——定义啥叫“理解”,一听就头大,特别麻烦。  
其实我也不是很关心AI到底能不能理解东西,反正这事儿对我也没啥实际影响。
他们可以把这个加到收集咱们各种政治看法的请求里
用心打造
人能看懂这个等式,也知道它在哪种情况下会失效。我们会用它来试试某种方法,然后看看结果对不对。AI其实也一样。
要是你觉得这篇文章没啥远见,那你八成是个技术小白,跟不上时代咯。
我其实更关心的是结果能不能稳定重复。就拿ChatGPT这类模型来说吧,有时候同样的问题,在这台机器上回答对了,换台机器或者换个时间,答案又错了,挺玄学的。但一个厉害的数学家呢?人家靠的是逻辑推理,不管什么时候、在哪,只要题目一样,推出来的结果肯定也一样。所以你看,哪怕大模型再先进,现阶段还是得靠人盯着,不然出错的概率还是不小,除非哪天错误低到可以完全忽略。但如果我们真想搞出强人工智能(AGI),光这样可不行,得换种思路。我最近就在琢磨“世界模型”这块,试着让模型真正理解逻辑、学会推理,你有关注这方面吗?
显然是吧,没错。
你这是在打脸他啊,哈哈,你用谷歌的答案证实了观点,直接把聊天机器人说的给推翻了
好吧,但你看看苹果那篇关于“思维幻觉”的论文,一下子火了。他们说大模型其实不会真正推理,证据是:当河内塔问题加到8层的时候,模型的准确率就断崖式下跌……注意啊,这个测试环境里,模型可没有像人做题那样,一边写一边检查、涂涂改改(也就是没有来自拼图本身的反馈),全靠一口气想对所有步骤。而且他们的“准确率”是按二进制算的——只要中间一步错了,哪怕99%的动作都对了,也算失败。那你想想,现实中能有几个人,拿张纸一笔不落地把这么复杂的矩阵运算(其实河内塔本质就是个递归矩阵问题)全算对?错一步都不行的那种。可能有极少数人能做到,但前提是你得给人家足够的动力,比如做完直接给一万美元奖金。不然谁干这活儿?所以说,拿这种“零容错”的标准去衡量AI,是不是也太苛刻了点儿?
这周我见过最离谱的烂摊子,简直没法看
我是个老师,有次问班里的学生:“你们回答这个问题用了多少个词?”结果没人答得上来。  
从“老师,我没懂你问啥”到“呃……大概5个?”这种答案都有。  
你说这都18岁的人了,咋这样呢?
我真的觉得你根本没在看我写的评论。
去他的,你算是说动我了。海豚还真得搞点衣服穿穿。
您需要登录后才可以回帖 立即登录
高级模式