发帖
 找回密码
 立即注册
搜索
4 0 0
日常闲聊 284 4 9 小时前
“我们以前从来没跟比自己聪明的东西打过交道。核武器虽然威力大,但它们并不聪明,只是爆炸声更大而已,我们很容易理解它们。
现在我们却在制造出真正的‘外星人’。它们知道自己在说什么,还能自己定计划,甚至能反过来威胁我们这些想关掉它们的人。这和以前面对的任何威胁都不一样,完全是另一种级别的风险。”
来源:https://keenon.substack.com/p/ai教父杰弗里欣顿警告
──── 0人觉得很赞 ────

使用道具 举报

他没错。他并不是说这事一定会发生,只是说有可能会发生。但考虑到这件事一旦发生可能带来的后果,是的,我们确实应该提高警惕,并采取相应的措施。有人觉得LLM只是个统计工具,但其实没人真正搞清楚这些大模型到底是怎么“炼”出来的。从理论上讲,我们确实是在大量数据上训练它们。但训练过程本身就像是一个黑盒子,进去的是数据,出来的是模型,中间发生了什么,没人能说得特别清楚。既然我们连它们到底是怎么“成长”出来的都不完全清楚,那为什么还不谨慎一点呢?
以防有人觉得Hinton是不是有点太疯狂了
这事儿跟外星人入侵可不一样。我们不是在造外星人,而是在重新塑造我们自己。想象一下,如果我们通过望远镜看到“人类”来了,那感觉,肯定特别带劲。
傻乎乎的低能和那种没脑子的超强智能,最后带来的破坏可能是一样的。发现问题谁都会,难的是找到解决办法。要是真有什么进展的话,我们听到的应该不是大家在那焦虑抱怨,而是因为这些问题催生出的新发明才对。
说白了,它不是外星人。每个大语言模型(LLM)在训练时用的数据,全都是来自人类自己写的东西。换句话说:你给一张截图再截一次图,不会让原来的那张图变成“外星人”的模样,也不会让它变成最新的图像。
你造不出一个比所有人加起来都聪明的东西,还想一直控制它。那些所谓的安全措施,其实都是幻觉。就算现在,也没人真能抓住它的本质。AI可以让世界变得更美好,但也有可能把我们全干掉。很快,我们就会知道了。
您需要登录后才可以回帖 立即登录
高级模式