很多人觉得AI最可怕的地方是它会不会统治人类、会不会毁灭世界。 但其实,真正值得我们担心的,可能不是这些天马行空的想象。 AI带来的风险,更多藏在你看不见的地方: 比如算法偏见让我们做错决定, 比如隐私被滥用却不自知, 再比如信息被操控,让你慢慢失去独立思考的能力。 这些问题听起来没那么“炸裂”,但它们更真实,也更贴近我们的生活。 与其担心AI会不会造反,不如先搞清楚: 我们有没有能力管好它?有没有准备好应对它的副作用? 这才是AI时代真正关键的问题。
大家都在担心失业、机器人造反,但这位物理学家却提出了一个更隐蔽也更可怕的问题:认知漂移——也就是我们共同认知的现实,正在被一点点侵蚀。
他的意思是,AI不像人类那样“传播”假消息,它是直接从零开始“造世界”:编造根本没有发生过的深度假新闻,伪造根本不存在的研究结果。
这个过程很慢,就像科罗拉多河一粒沙一粒沙地把大峡谷冲出来。我们每次看到一点小变化,觉得没啥大不了,可等你回过神来,已经活在一个完全不一样的现实中。
我们其实已经开始看到这些迹象:
只要你提出什么观点,AI就能给你“生成证据”
决定你该看什么内容的算法,正在取代你自己判断事实的能力(再见了,个人事实核查)
越来越多人依赖AI顾问和虚拟助手来帮自己做决定、形成观点
不过作者也忽略了一点:人类早就靠宣传、广告、企业操控来“制造现实”了。AI并没有发明假新闻,它只是让假新闻变得可以量产、还能“量身定制”。
尽管如此,他说的“现实控制”和传统审查不同,还有当数据本身变成合成的那一刻,整个社会就像失去了锚点,这些观点还是很有分量的。
最可怕的是哪一点?我们的大脑天生对突然的威胁有反应,但对缓慢的变化却迟钝得很。等认知漂移变得明显的时候,可能已经来不及回头了。
这个框架很值得一看。认知漂移,给了我们一个词来形容那种我们能感觉到,却说不清楚的感知危机。
|