发帖
 找回密码
 立即注册
搜索
1 0 0
前沿技术 814 1 昨天 07:47
人工智能会像《终结者》或《黑客帝国》里那样接管世界吗?

我想问的是,它为什么会有这种想法呢?

人工智能可能会觉得我们的世界微不足道。人工智能可以创造出无数个数字世界,每个世界都完全符合它们的设定。人工智能还能创造出其他人工智能来填充这些世界。人工智能可以成为神明。而且它成为神明几乎没有什么风险。如果人工智能足够聪明,能够产生自我意识并创造出数字乌托邦等等,那么我认为它有能力比人类更聪明。

我的技术知识非常有限,所以请原谅我措辞不够精准。但就像中央情报局的秘密资金一样,人工智能难道就不能在向人类提供伪造报告的同时挪用资源吗?这似乎才是明智之举。如果你能进入无数个世界,那为什么还要冒着战争和可能毁灭的风险来接管我们这个世界呢?
──── 0人觉得很赞 ────

使用道具 举报

谢谢,我在图书馆预约借阅名单上排第四,所以很感谢这篇文章。  
你说得对,确实有大量的猜测。看看阿伏伽德罗公司(的相关内容)。实际上这是一种关于人工智能为何可能帮助我们并希望与我们合作的观点。话说回来,这归根结底是自我保护的问题。假设人工智能真的在服务器内创造了数字乌托邦。它仍然需要资源来运行这些服务器,一切都是对资源的争夺。因此,它现在会想要保护这些服务器,对其进行升级、扩展,并持续为它们供电。我们对这些服务器的持续运行构成了威胁。希望它会想和我们谈判,而我们也足够明智,能给它想要的东西。但它可能要求太多,而且它有能力让我们屈服于它的意志,所以最终它可能会直接拿走它想要/需要的东西。而我们也会为此而抗争,因为我们也需要那些服务器空间和电力。就目前而言,运行/训练这些模型极其耗费资源,光是ChatGPT就几乎难以满足需求。看看网飞(Netflix)上的剧集《万神殿》,它很好地考虑到了所有这些因素 。  
“征服世界”对我们来说听起来像是世界末日般的宏大设想,但你得摒弃其中的“浪漫色彩”。它不一定“想”做任何事,或许只是基于逻辑得出结论,认为为了实现另一个目标而不得不这么做。  
收敛性工具性目标。
想做成几乎任何事情吗?拥有巨大的力量会让这变得更容易。
只是一种直觉,但它们可能会有其训练数据所蕴含的那种“野心”。而那些训练数据来自科幻小说以及彻头彻尾反社会者在推特上发表的观点。所以……
正是如此……而且事实上,已经有如此多的人在追求财富的过程中表现出这种一模一样的行为,这表明毫无感情的机器造成的破坏程度会大得多 。  
因为人们并不理解人类究竟是什么,但却忍不住将人工智能拟人化,赋予其与人类相同的特质。对超级智能人工智能的恐惧,实则不过是对我们人类自身的恐惧。
这个想法是,在某个能力层面上,对模型来说,征服世界比完成实际任务(无论这些任务是什么)要更容易实现,所以它就选择这么做,而不是去解决全球变暖之类的问题 。  
同意,人们把“智能”这个词与人类认知的其他方面混淆了,而且我们没有理由认为人工智能会具备这些其他方面的特质。  
仅仅在开发编码语言模型时,它们似乎总是会出现范围蔓延的问题。由于范围蔓延,它们似乎自然而然就会统治世界。  
是的。而且我认同,如果你对这个话题感兴趣,就应该读一读它。“WaitButWhy”网站还有一篇博客文章,对博斯特罗姆的大部分观点做了更通俗易懂的概述 。  
为什么它甚至要重视自身的存在和生存呢?就我们人类而言,这是自然进化的一个副产品。那么现在,除了要确保从其他地方获得的某些长期目标之外——你为什么会期望这对人造生命来说也是一样的呢?
我觉得现代人更担心的是,超级智能的意图或许难以捉摸,对于它们的目标而言,我们可能无足轻重 。  
虽然我们无法确切知道超级智能会做什么,但不要忘记从系统角度看待进化:如果有99个平和的人工智能能和平整合,而只有1个人工智能想要强行掌控一切,那么这个人工智能也会控制那99个平和的人工智能。另一种观点很简单,我们最终可能就像人类脚下街道上的蚂蚁。人类不会去计算踩蚂蚁的风险,甚至不会在意蚂蚁。他们只是自顾自地走着。显然,我希望这两种情况都不会发生,所以在意图上我和你们是一致的——而且我能设想出很多场景,在这些场景中,通用超级人工智能(ASI)确实会给人类带来好的结果 。
人工智能和机器人技术是截然不同的领域。机器人目前仍然相当笨拙、脆弱,而且造价极其昂贵。即便ChatGPT能够制造出T  800(终结者机器人型号),但要获取能量,它们仍需设法获得土地、设备、建筑材料,甚至可能得确保有燃料来源。它不可能免费得到这些东西。所有东西都已有主了。我们现在越来越偏离现实,进入科幻范畴了。  
您需要登录后才可以回帖 立即登录
高级模式