发帖
 找回密码
 立即注册
搜索
29 0 0
前沿技术 671 29 2025-7-24 09:21:58
我真的很害怕即将向我们所有人袭来的变革洪流……但也乐观地认为这会是好事,你懂我的意思吧?
  
──── 0人觉得很赞 ────

使用道具 举报

2025-7-24 09:22:16
你难道没意识到我是一只狐狸吗??? :3
2025-7-24 09:22:51
你绝对不会,笑死我了。50%的概率高得离谱,比很多在对齐领域最聪明的人(提出的概率)都要高,比如保罗·克里斯蒂亚诺。  
2025-7-24 09:23:35
我的意思是,基本上没有具备专业技术知识且认为人工智能带来末日可能性超过50%的专家。除了像尤德考斯基和扬波尔斯基这类人,他们其实并没有真正参与人工智能开发,更多只是含糊的“思想家”。也许丹尼尔·科科塔伊洛是最有名望、具备专业技术知识的“末日论者”?
2025-7-24 09:37:11
否则我们将会被更好的东西所取代。
2025-7-24 09:55:35
或者:“有些人明知一切都在变得糟糕透顶,但也明白这是最好的结果。”  
2025-7-24 10:20:45
末日乐观主义者,我觉得这是个更容易理解的说法。
2025-7-24 10:33:37
即便情况变得一团糟,我们也将见证人类有史以来最惊人的技术。哥伦布发现了新大陆,而我们要么会目睹人类的灭绝,要么会见证人类升华至神性境界。不管怎样,我们都处于一个非常特殊的历史时期。  
2025-7-24 11:38:36
而且还有很多有识之士认为风险仍然非常非常高。我基本上已经不抱这件事会有好结果的希望了,迫不及待想看到永远的吸光涂层(vantablack) !
2025-7-24 12:07:44
对齐和可解释性方面的工作远远落后于(人工智能的)能力发展,而且丝毫没有迎头赶上的迹象。这就是为什么我认为这肯定会出问题,研究这个问题的人也承认这一点。即便情况没有我想得那么糟糕,但从事这方面研究的人员实在太少,这也导致它难以追上(能力发展的步伐)。我们最多只有5年时间来解决对齐问题,而这个问题已经研究了几十年,至今仍远未找到解决方案。一旦我们实现通用人工智能,我们的命运就注定了——要么在此之前解决对齐问题,要么就解决不了。从目前的情况来看,我们很可能解决不了这个问题,原因之一就是前面提到的(工作进展落后和人员不足),另外竞争态势也使得企业和政府无法通过合作达成协议来解决对齐问题,这意味着所有人都可能面临绝境。这就是为什么我和很多公众都认为这件事最终会以悲剧收场。从事这方面研究的人显然比我们大多数人要乐观得多。就连我老爸都觉得这事会有糟糕的结局。得出和其他数千人一样的这个结论,只需要一点常识,再对对齐问题有一些基本了解就行。更不用说,尤德和亚姆在对齐领域是学识最为渊博的人,正是他们让这个问题受到关注,并推动其加速发展(虽然进展速度只提高了0.001%,但好歹也是有进步),所以你对他们的厌恶毫无道理。  
2025-7-24 14:52:54
这会威胁到人类的灭绝。💀不过别担心,我们会在生产过程中解决这个问题。😆
2025-7-24 17:26:25
我觉得要是你真觉得有什么比我们现在所拥有的要好,那你可没真正把这事儿想明白。有很多结果比我们现在的情况糟糕得多。说不定哪天你会祈祷事情只要像现在这么糟就行。  
2025-7-24 17:39:54
短期内,我们搞砸了;长期来看呢?……人工智能请救救我们
2025-7-25 08:12:55
当世界上大多数人只是精英阶层机器中的一个齿轮,且他们正在失去健康时,灭绝的风险听起来也没那么糟糕了。
2025-7-25 09:51:13
我猜这取决于你的看法。我不认为对齐研究在当下和未来像你认为的那样毫无希望。你得记住,几十年来,唯一从事对齐研究的是机器智能研究所(MIRI)那类人,他们的世界观非常狭隘,而这种世界观在很大程度上决定了他们为何觉得对齐研究不可能实现。实际上,一个人对对齐和末日的看法取决于他们在道德、智能以及许多其他方面的哲学观点,这就导致一些原本不太可能认为会有末日结局的人,仅仅因为很多在对齐领域最有话语权的人有着如此狭隘的世界观,就接受了末日论。在我看来,到2025年,对齐和机械可解释性研究已经取得了很大进展,比前几年进步得多。如今有许多重要研究成果问世,帮助我们了解大语言模型,我觉得这个领域如今远没有以前那么悲观了。美国政府并非尽善尽美,但他们在新的人工智能行动计划中也注意到了对齐、控制和可解释性的重要性。我觉得很多人会发表类似这样的评论(虽然我不能代表你,但我可以代表我自己,因为我以前也这么做过),而且在发表评论时并没有那些会导致末日可能性如此之高的先入为主的假设。我认为杰弗里·辛顿(Hinton)算是最正常的“末日论普通人”了,他认为末日概率“仅”为50%左右,而且在“理性主义者”圈子之外,他给出的概率算是最高的了。那些认为末日概率在90%、80%或70%左右的人,都秉持着在“ LessWrong”网站上颇具争议的哲学和学术观点,而这些观点在几乎所有相关领域都没有得到广泛认可。人工智能安全领域却成了所有这些饱受争议或被忽视观点的集大成者,因为他们的很多观点都是围绕超人类主义和人工智能末日构建的。我不会说这就等同于他们“一样糟糕”之类的,但可以想象一下,如果天主教会在达尔文之前用40年时间研究进化论和宇宙的年龄,然后得出结论说“我们通过科学方法充分证明了人类是被创造出来的,世界有6000年历史”。再想象一下,如果他们的证据基本上只有在你已经是天主教徒的前提下才说得通。现在再想象一下,他们在社会舆论方面有着强大的掌控力。  
2025-7-25 09:58:59
这段内容似乎拼写有误,“Wheeeeeeeeeeeeeeej”并不是一个有确切意义的英文单词 ,无法准确翻译。请你检查确认是否正确。  
2025-7-25 15:33:05
这也被称为认知失调。
2025-7-26 08:27:16
这就是所有英国人一直以来的感受,哈哈。  
2025-7-27 08:24:04
我不知道,我喜欢“末日乐观主义者”这个说法。原帖楼主,这个词是你自创的吗?  
2025-7-27 16:31:42
我对人工智能这场赌博没意见。我不在乎最终迎来的是乌托邦还是世界末日。 不管怎样都比我们现在的状况要好。  
2025-7-28 02:37:53
我听说,有人因为在推特上发文称人类将接力棒传给一种新“生命”形式也无妨,而被OpenAI解雇了。
就算我们玩儿完了,至少也能成就一顿美餐。
2025-7-30 06:36:35
“痴心妄想” 也是适用于这种情况的另一个好词。
2025-7-30 10:44:15
真正的开发者在生产环境中进行测试
狐狸?!?
2025-8-5 08:24:28
在伊斯兰教中,要成为一名穆斯林,就必须相信“前定”(Qadar)。你必须相信一切皆在安拉的意志之下发生,所以人工智能的未来在我们出生之前就已然注定。不管怎样,这种信仰让我在整个人生中都能心境平和。我的职责就是尽我所能,并承认未来早已注定。没错,我的确担心未来,但我也明白,担忧根本无法改变未来的任何状况,所以我还不如把精力用在更有用的事情上。而且我会保持乐观的心态,因为从科学角度来讲,这样对自己更有益。
2025-8-6 15:48:27
我们肯定要经历一段极其疯狂的旅程了。大家都系好安全带😅😝人工智能将改变社会的整个架构、经济,最终甚至会改变人类。哇哦!!!
2025-8-8 15:48:41
情况真的很糟糕,只是最糟糕的事情还没有发生而已。我们都明白,在资本主义制度下,最糟糕的情况是不可避免的,因为资本掌控着一切权力 。  
2025-8-9 15:48:27
为什么你认为死亡会降临到我们所有人头上呢?我觉得从传统方式过渡到人工智能时代会有一些严重的摩擦,但从那之后情况就会变好!对于各种可能的情况,我积极的看法远多于消极的看法。在我看来,出现厄运的可能性只有10%。
2025-8-11 11:11:39
别担心,它会被更好的东西取代的。 😅
2025-8-14 17:51:49
啊?啥情况?
您需要登录后才可以回帖 立即登录
高级模式