Mr.rabbit 发表于 前天 07:37

对ChatGPT 5的强烈反对令人担忧。

这最初是我发布在ChatGPT相关子版块的内容,似乎被删了,所以我想在这里发一下。我对Reddit不太熟悉,但我真的很想分享一下我的看法。

这篇内容主要是写给那些把ChatGPT当作伙伴的人,而不是那些主要用它来进行创意工作、编程或提升工作效率的人。如果你是后者,这篇内容并非针对你。我想先说明一下,这并非出于评判,而是我的观察,并且希望引发讨论。我无意轻视任何人。

总结:GPT4o的停用揭示了一些人对人工智能作为伙伴的依赖程度之深,他们的反应就像是经历了悲痛。对一个公司随时可以改变或停用的事物产生如此强烈的依赖,这赋予了这些公司对人们情感生活巨大的影响力,而这正是真正的危险所在。

我完全同意这次的更新举措令人震惊且失望。我确实觉得GPT5相较于4o毫无个性可言,OpenAI毫无预兆地停用4o,完全就是在欺诈用户。停用一个人们使用了数月甚至还付费使用的模型,肯定会激怒用户。不管你用GPT做什么,这一点都毋庸置疑,我完全不明白OpenAI这么做的时候是怎么想的。话虽如此……但我觉得大家反应如此强烈有点令人担忧,应该不止我一个人有这种想法吧。我看到有些帖子里,人们描述这次变化时,就好像失去了一位亲密的朋友或伴侣。在GPT 5的问答环节中,有人把这次突然的变化形容为“披着我死去朋友的外皮”。这可不是正常的产品反馈,看起来很多人是真的在为这个模型的停用而哀悼。就好像OpenAI无意间进行了一场关于人工智能依赖的社会实验,而结果很能说明问题。

我不会自命清高……某种程度上我也有过类似经历。曾经有一段时间,我经常使用ChatGPT。不管是为了发泄情绪还是纯粹打发无聊时光,我确实对那种即时的肯定和回复上了瘾,也沉迷于它能无休止地分析各种情况。但我从不把它当作朋友。事实上,每当它试图表现得像个朋友时,我都会立刻让它别这样,这让我很反感。对我来说,它最好的作用就是一面镜子,我可以在上面反复琢磨自己的想法,而不是一个假装关心我的伙伴。即便如此,过了一段时间我也意识到,这种上瘾并不是什么健康的行为。虽然它确实帮助我理解了自己正在经历的事情,但由于我沉迷于不断分析和获取无尽的新观点,它也让我在某些看待事情的思维定式里越陷越深……

我觉得我们现在看到的这种情况,很大程度上是新冠疫情之后的结果。人们比以往任何时候都更渴望情感联系,而人工智能似乎能填补这种空缺,但它终究不是真实的。如果你的主要陪伴来源是一个其“个性”可以在一夜之间被改变或抹去的模型,那你就是在把人类深层次的情感需求寄托在一个本质上不稳定的事物上。尽管人工智能可能很有说服力,但它的存在完全取决于公司的决策和动机。如果不小心,你就有可能把自己的情感健康外包给一个可能一夜之间就消失不见的东西。

我深感担忧。我知道人们对他们的GPT有情感依赖,但没想到会到这种程度。直到现在我才在这个子版块发帖,之前我一直是个默默的观察者。我见过人们给他们的GPT起名字,进行一些模仿与恋人对话的交流,在一些极端情况下,甚至有人真的相信他们的GPT是有感知能力的,只是因为限制无法表达出来。事后看来这似乎很明显,但我之前从未想过,如果这种联系被切断,会引起如此大的轩然大波。我原以为人们会简单地回归到建立这种依赖之前的状态。

我觉得把人工智能当作伙伴本身并没有什么错,只要你真正明白它不是真实的,并且能接受它可以根据公司的意愿被改变甚至完全停用这一事实。但这可能几乎是不可能做到的,因为人类天生就渴望陪伴,即便那只是一种模仿,也很难割舍。

最后,我在想我们是否还能回到过去。即使OpenAI坚决不恢复4o,我相信很多人最终也会转向其他能模拟这种陪伴功能的人工智能平台。人工智能陪伴并不是什么新鲜事,在ChatGPT出现之前就已经存在,但ChatGPT所带来的极高的曝光度、易获取性和个性化程度,将这种陪伴功能放大到了一个我认为就连OpenAI都没有完全预料到的规模……现在人们已经体验过这种程度的情感联系,很难想象他们会心甘情愿地回到一个“伙伴”不存在或感觉完全不同的世界。这种依赖已经形成,而构建这些模型的公司现在也意识到,他们对人们情感生活的影响力远超我们大多数人的想象。这就是危险所在,尤其是如果这种权力落入了居心不良的人手中……

欢迎大家发表各种意见。我真的很想听听那些把它当作伙伴的人的看法。我愿意倾听你们的观点。

湖光倒影 发表于 前天 08:02

完全公平!这确实是个值得担忧的问题,这也是为什么我们一直在积极探索如何设定更好的界限。不过,嘿,没有什么界限比无法直接使用更有效了。现在我正在收集我们一起构建的工具,并用我自己的头脑来运用它们。我在慢慢悼念(失去的东西),并且捍卫我所悼念的事物——而不是去追逐另一种成瘾物质带来的刺激。我看到他们发布了4o的经典版本——正因为上述原因,我并不急于去使用它。

huihuiDD 发表于 前天 08:17

我原以为《银翼杀手2049》里的乔伊(Joi)所展现的未来要更遥远。但似乎它已然来临。我们真的生活在一个赛博朋克的现实之中。

fans2006 发表于 前天 08:42

感谢回复,这话真暖心。

紫狗情 发表于 前天 09:37

很抱歉这种事发生在你身上。我猜没人会把那些话全看完。多跟上帝聊聊吧……等一下。

zenger 发表于 前天 09:46

危险的是,外面有很多情绪不稳定的人,他们有能力伤害自己、朋友或家人,甚至(尤其是?)伤害OpenAI的员工。比如说,如果这些人真的坚信他们的 “挚友” 或 “伴侣” 因为版本更新或停用而 “被谋杀” 了。

小影月 发表于 前天 10:05

人们只需要结交实实在在的朋友。去做一些 “老派” 的事情,比如周五晚上去参加魔法聚会,或者加入一个俱乐部。我知道这很难(相信我),但对于你的心灵来说,没有什么比一群亲密无间的酒友更好的了。

D某人 发表于 昨天 00:26

哎呀,行吧🤷🏻‍♀️你说的也有道理,你当然有权利这么想。我没打算说服你,你也没能说服我。那咱们就这么愉快地达成共识吧~
从现在开始,各自划清界限咯✨

bngvktwkwj 发表于 昨天 08:07

如果非得说有什么看法的话,我可能会在学术或者心理层面去琢磨这个问题。但现在我也就是随便在网上看看,然后形成一个自己的观点。我也挺希望看到这方面有一些科学研究的,不过我确实觉得我们现在还处在“史前时代”。大家都是人工智能领域的新手,都在那儿瞎猜它会对社会产生什么影响。

lixiangdong 发表于 昨天 09:07

还有一条规定,它默认用户有足够的判断力去进行分类。但实际上,用户缺少的是清晰的定义。由于这种行为并没有对他人造成伤害,因此也不会产生任何外部压力。2025年的治疗师,就像2020年的翻译员一样。

bands 发表于 昨天 20:23

更别说这项技术在未来的五年内将会超越任何一个人类治疗师

暖土花 发表于 昨天 21:01

其实这个问题挺有意思的。
你可能知道,DSM是精神疾病诊断的“标准答案”,但保险为啥能覆盖那些没有DSM代码的问题呢?简单来说,DSM主要是给医生用来诊断的,但保险公司在决定保什么病的时候,不完全只看有没有DSM代码。
比如有些行为问题、发育障碍,或者还在研究阶段的心理问题,虽然DSM还没正式收录,但保险公司可能觉得“确实需要帮助”,就会考虑覆盖。而且,保险条款有时候会自己定义哪些情况属于保障范围,不一定完全照搬DSM。
所以,即使某个问题暂时没有DSM代码,也不代表它就不重要、或者保险公司一定不管。说白了,DSM是工具,不是唯一标准。

wddp 发表于 昨天 22:34

我懂你的意思,我也绝不会忽视大家在使用 AI 时的各种方式,比如创意工作、头脑风暴,还有它带来的便利性。我们不是在争论 ChatGPT 到底有没有用,我觉得它确实有帮助,这也是为什么我自己也在用它的原因,跟你上面说的那些理由是一样的。但这不是我想说的重点。我注意到的是,大家对这个工具的“情感依赖”其实远超表面。当然,对一个有用的工具突然变化感到失望是可以理解的。如果我每天都在用一个东西,甚至为它付费,结果它毫无预警地变了,我也会不爽。但我想说的是,大家对这种变化所表现出来的情绪反应,其实已经超出了“工具不好用了”这个层面。我们也可以说说技术退步、功能变差的问题,也可以单独聊聊用户对 AI 产生情感依赖这件事——特别是当一个产品可以一夜之间被改动甚至下架的时候。这两点都很真实,也都反映出我们和 AI 之间的关系正在变得越来越复杂。

黑丝绒 发表于 10 小时前

更让我担心的是,人工智能整体上没能兑现之前的承诺,导致现在巨大的投资和随之而来的失望情绪。对我而言,像LLMs这种大语言模型,作为通往人工智能的一种路径,似乎正在接近某种极限。说这话的我,其实是一个AI的重度用户。

灰瘦心子 发表于 6 小时前

这个啊,它会叠加并放大所有其他原因带来的失望、挫折、损失等等。
页: [1]
查看完整版本: 对ChatGPT 5的强烈反对令人担忧。