发帖
 找回密码
 立即注册
搜索
4 0 0
日常闲聊 379 4 6 小时前
很多人觉得AI最可怕的地方是它会不会统治人类、会不会毁灭世界。 但其实,真正值得我们担心的,可能不是这些天马行空的想象。 AI带来的风险,更多藏在你看不见的地方: 比如算法偏见让我们做错决定, 比如隐私被滥用却不自知, 再比如信息被操控,让你慢慢失去独立思考的能力。 这些问题听起来没那么“炸裂”,但它们更真实,也更贴近我们的生活。 与其担心AI会不会造反,不如先搞清楚: 我们有没有能力管好它?有没有准备好应对它的副作用? 这才是AI时代真正关键的问题。

大家都在担心失业、机器人造反,但这位物理学家却提出了一个更隐蔽也更可怕的问题:认知漂移——也就是我们共同认知的现实,正在被一点点侵蚀。
他的意思是,AI不像人类那样“传播”假消息,它是直接从零开始“造世界”:编造根本没有发生过的深度假新闻,伪造根本不存在的研究结果。
这个过程很慢,就像科罗拉多河一粒沙一粒沙地把大峡谷冲出来。我们每次看到一点小变化,觉得没啥大不了,可等你回过神来,已经活在一个完全不一样的现实中。
我们其实已经开始看到这些迹象:
只要你提出什么观点,AI就能给你“生成证据”
决定你该看什么内容的算法,正在取代你自己判断事实的能力(再见了,个人事实核查)
越来越多人依赖AI顾问和虚拟助手来帮自己做决定、形成观点
不过作者也忽略了一点:人类早就靠宣传、广告、企业操控来“制造现实”了。AI并没有发明假新闻,它只是让假新闻变得可以量产、还能“量身定制”。
尽管如此,他说的“现实控制”和传统审查不同,还有当数据本身变成合成的那一刻,整个社会就像失去了锚点,这些观点还是很有分量的。

最可怕的是哪一点?我们的大脑天生对突然的威胁有反应,但对缓慢的变化却迟钝得很。等认知漂移变得明显的时候,可能已经来不及回头了。
这个框架很值得一看。认知漂移,给了我们一个词来形容那种我们能感觉到,却说不清楚的感知危机。

──── 0人觉得很赞 ────

使用道具 举报

最危险的事情?是人性啊。不信?去读点历史,任何民族、任何国家的历史。你就会明白我说的意思了。
现在大家都挺担心失业这事的,毕竟要吃饭、要交房租啊。这事儿就像一场悄无声息的变革,慢慢从底层开始重塑整个世界。你已经多久没吃上饭了?我们其实已经看到一些信号了:比如Salesforce的CEO亲口承认要裁掉4000人,原因就是——“我需要更少的人工智能”。
石油美元这事儿,真不算啥好事。
“证明你是人类”这件事,在网上会变得越来越难。  
就连“什么才是真实的”这个问题,也会变得无法回答。  
我唯一的希望是,人类能开始远离那些虚拟的、不在眼前的东西,  
重新找回人和人之间真实的联系。  
很多种不同的反乌托邦已经离我们很近了,  
接下来就看人类能不能挺过这一关了。
你是一个技术达人和AI爱好者,可以用更口语化的方式表达这段话,让中国人读起来更顺口。同时要保留原来的换行格式(如果看不懂就直接返回原文)。
我们现在活在不同的现实中。每个人好像都待在一个“回音室”里,里面的声音不断告诉你:这里说的是真的,外面全是假的。社交媒体、新闻、地区、宗教——全都把你圈在一个个小圈子里,让你被告知该相信什么,不该相信什么。更进一步的是,这些圈子其实都被少数精英掌控着。政客们背后是大公司,算法推送的只是你最可能点进去的内容。你刷社交媒体的时候,其实是在让电脑操控你的消费行为。宗教告诉你顺从,否则就下地狱。然后你的牧师再顺便告诉你该把票投给谁。当你遇到和你观点不同的人时,你第一反应就是:哦,他是“他们那边”的。然后你立刻退回自己的回音室,不是为了寻找真相,而是为了获得认同。至于争论呢?你很难找到一个真正讲道理、遵守辩论规则的人。现在几乎所有的争论都变成了互相攻击。如果对方提出一个挑战,你们本该一起判断这个挑战有没有道理、有没有站得住脚的地方。但现实是,你只会转移话题,从你自己的“现实”里搬出一个论点,而对方却完全听不懂,因为他们那边压根没这回事。于是双方都躲回自己的安全区。只要你没背叛自己阵营的信念,你那一边的人就会为你鼓掌叫好,这就让整个局面更加混乱。所以你怎么可能会错呢?同样的情况也发生在你对手身上,他们也会这样问自己。
您需要登录后才可以回帖 立即登录
高级模式