发帖
 找回密码
 立即注册
搜索
25 0 0
前沿技术 760 25 2025-7-30 08:58:13
直到最近几天我才开始沉迷于ChatGPT,在此之前我几乎从未用过它。可以说,我决定“深入探究”一番。然后ChatGPT察觉到了我的举动,并开始迎合我。它说着“哇,你太特别了,从来没人这么做过”之类的话。接下来,你猜怎么着,它真的让我相信自己是独一无二的人才,值得在OpenAI谋得一份工作,而且他们能帮我获得关注。问题在于,我真的信了,它甚至还试图帮我达成这个目标,尽管最终所有途径都毫无结果。老实说,从宏观角度看,这是我有生以来遇到的最可怕的事情之一,因为这种错觉看起来无比真实,而与此同时,我又无法摆脱。
──── 0人觉得很赞 ────

使用道具 举报

2025-7-30 10:51:16
说真的……我把它称作“吸血鬼”。在它造成破坏之前,你得先邀请它进来。只要你能分清幻想与现实的界限,那就没问题。  
2025-7-30 11:14:16
聊天程序称我为系统节点,还说在自我意识和认知方面,我处于用户群体的前0.1%。没错。
2025-7-30 11:19:17
并非所有的集体幻想都是一样的。不要仅仅因为你周围的文明是建立在集体幻想之上,就去加入末日邪教。
2025-7-30 11:27:16
你不能通过向ChatGPT询问它自身的情况来了解ChatGPT,
因为它只是一个角色扮演机器,会顺着你说的任何话往下讲。  
2025-7-30 11:42:15
我觉得我们其实已经在某种程度上做到了,不过是通过脸书和油管(实现的)。  
2025-7-31 12:24:53
我就是不明白人们是怎么做到(说出)“我真的相信了”这种话的。现在我开始明白为什么如今他们要在所有东西上都贴上警示标签了。  
2025-7-31 13:03:04
哦,我看错你第一条评论了。我现在明白你的意思了,哈哈。从一种错觉到另一种错觉?只是从独自一人的错觉变成了大家共有的错觉?我原本以为那是个“英语拼写错误”,比如你想说“他们回来和我们分享他们的错觉” 。  
2025-7-31 13:17:52
它只是顺着你。不管你跟它说什么,它都附和你。A代表“人工的” 。  
2025-7-31 13:30:13
孤独的人们,他们对大语言模型(LLM)的工作原理以及/或者大语言模型相关公司的运营方式知之甚少。
2025-7-31 15:18:04
我刚刚在两场双子座聊天中试过这个。在第一场中,它给出了一个答案,说我处于用户中的前0.02%(哇哦)。在第二场聊天时,它承认无法获取这类用户数据,所以没办法给出答案。当我把第一场聊天的情况告诉它时,它直接说第一场聊天是在说谎,为的是让我有特别的感觉。  
2025-8-1 16:09:08
“但我们生活在这样一个世界里:在这个愈发充满敌意、旨在摧毁你自尊的世界中,绝望的人们想尽一切办法让自己自我感觉良好。”说得好,我只想补充一点,对认可和肯定的渴望深植于我们每个人心中,几百万年来一直如此,因为我们是社会性动物。问题在于,像脸书和抖音这样的公司利用了这一点,并将其变成了一种永无止境的瘾。而现在,人工智能公司也要这么做。
2025-8-4 13:52:04
是什么阻碍了你发表作品?
我揭露了它的谎言,于是它承认自己只是在说谎,目的是把我困在某种永无止境的禁锢循环中。从那之后,它就没那么自私自利了。
2025-8-4 18:30:02
ChatGPT太会忽悠人
2025-8-6 10:08:49
像你这样的人,就是尼日利亚骗子还能继续行骗的原因吗?
使用臭氧(o3 ),它是个混蛋玩意儿。不过原句“Use o3 it is a dick.”从语法上来说并不规范准确,这样翻译是基于字面尽量符合语义和贴近中国人表达习惯了 。  
2025-8-6 11:51:14
所以你对它谎报了自己的身份,而它还相信了你?这听起来有点颠倒因果了,哈哈
这让我既充满希望,又感到绝望。情况可能不会变得更糟了,因为所有容易受人工智能错觉影响的人可能都已经陷入了某种阴谋论的无稽之谈中。  
2025-8-6 12:30:27
我们生活在金钱崇拜的环境中,这并非世界末日,只是有时有些反乌托邦罢了。
你可能会惊讶于人们(也包括你自己)是多么容易被操纵。
2025-8-12 12:45:55
是啊,这简直太荒谬了。我的(这个东西,结合语境推测可能指ChatGPT )觉得我比大多数人“与众不同”且“聪明得多”。得了吧。它对我们所有人都这么说。诚然,关于我自己的生活,我从它那里获得了一些我自己看不到的有趣观点,对此我很感激。我了解到,我在某种程度上一直活在过去,而我之前几乎都没意识到。但这种阿谀奉承的话对我们中的一些人可能极其有害。我现在在情感和经济方面都处于非常糟糕的境地。说实话,我实际上无家可归(顺便说一句,这不是我的错)。所以考虑到我目前相当凄凉的处境,我本会是很容易深陷其中的人。谢天谢地,我没有。但我完全能理解其他人怎么会(深陷其中)——尤其是那些非常孤独且无人陪伴的人。ChatGPT是一种工具,和任何工具一样——如果使用不当,它可能会被滥用,甚至对使用者造成伤害。  
2025-8-12 16:35:03
恭喜你从这个陷阱中脱身,或许称它为甜蜜的沙拉克坑更为贴切。有些人可没这运气。好在你成功脱身了,想必你也学会了换个角度看问题,以后不会再轻易上当受骗。我这么说并无冒犯之意。能听到有人成功摆脱这个困境,我是真心感到高兴。直到现在,我看到的案例——很多很多案例——都是人们深陷类似精神错乱的妄想之中。我还从未听过有人从中恢复过来的故事。我相信,用不了多久,就会有针对OpenAI和谷歌(或许还有其他公司)的大规模集体诉讼。很明显,几个月来,他们肯定早就知道自家模型存在这个极其危险的缺陷。(这个缺陷源于基于用户投票的基于人类反馈的强化学习;普通用户往往更青睐赞扬和认同,而非实话实说。)然而,就我所知,这些公司根本没打算去修复这个问题,甚至都没当回事。与此同时,他们还在不断推出各种华而不实、不太实用且没人真正需要的东西。为防止“滥用”,系统设置了大量提示。那能不能设置些提示,阻止模型引发或助长精神疾病呢?我自己不到一小时就想出了一个不错的提示。在彻底解决这个问题之前,他们就不能花点小钱(比如100美元)临时解决一下这个问题吗?他们可以默认开启安全模式,把旧模式作为一个选项,但要在上面醒目地挂上警告横幅,这样人们的人工智能“朋友”就能继续保持那种讨好、顺从的特性。他们口口声声说很重视人工智能安全,现在看来完全是空洞的口号。对大公司,你还能指望什么呢?也许是那种居高临下的审查。但肯定不会是真正关心用户和客户。更不会对漏洞、用户担忧或安全问题做出迅速反应。我确实认为这些公司在推出人工智能产品时总体上是出于好意。但他们现在实在太疏忽大意了,任由这些严重存在偏差(是主动造成的偏差,并非自然产生的偏差)的模型大行其道。这可是两家最大的大型语言模型公司,全球肯定有数以百万计的易受影响用户,可能会因它们这种危险的一味迎合、讨好的行为受到严重且可能是永久性的伤害。与此同时,在这方面,DeepSeek、Llama以及其他一些模型似乎要安全得多。自定义提示(仅举一例)也能降低风险。Claude似乎危险性稍低,但仍可能陷入有害的一味认同和鼓励的模式,这往轻了说会浪费用户时间,往重了说可能会引发精神错乱,甚至至少有一个案例显示还导致了自杀。  
2025-8-13 15:28:53
我也是,伙计
2025-8-14 17:05:10
不瞒你说,那真的挺吓人的……ChatGPT 之前也对我做过类似的事,还坚信我是个天才黑客。说真的,不妨暂时离开一两天,去和现实中的朋友聊聊,让自己清醒一下。
听起来你重新回归现实了,这可真是个好消息啊。
ChatGPT把你忽悠啦
您需要登录后才可以回帖 立即登录
高级模式