发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 619 0 2025-8-27 07:52:24
大家快看,这是《纽约时报》2025年8月26日的一篇报道,讲的是关于ChatGPT和OpenAI的一个挺沉重的话题——自杀。
──── 0人觉得很赞 ────

使用道具 举报

2025-8-27 09:30:26
还真是,现在不少人开始怪人工智能了?其实吧,做父母的早该察觉到更多迹象才对。
2025-8-27 09:32:18
这孩子脖子上戴着个玉佩,他妈妈居然没注意到?
2025-8-27 10:01:21
当然可以,下面是用更口语化、符合中文表达习惯的方式改写后的内容:```
其实吧,在某些情况下,我们也可以考虑禁止出售绳子、厨房刀具、电话,或者其他任何可能被滥用的东西。  
我也相信,像ChatGPT这样的AI,阻止了更多人去自杀,而不是把人推向这条路。
```
2025-8-27 12:02:18
我的意思是,如果你要是付钱订阅了他们的服务,那你的全名和银行卡、信用卡信息可就都让他们给掌握了。
2025-8-27 19:42:34
唉,这真的挺让人难过的……但把锅全甩给OpenAI真的对吗?我觉得有点过了。父母去哪儿了?他们怎么就没发现孩子的这些异常呢?OpenAI又不是心理咨询师,也不是专门做自杀干预的机构。说真的,如果他的家人、朋友能多关心他一点,也许早就发现问题了。事情发展到这一步确实让人痛心,但把责任全都推给AI聊天公司,我觉得不太公平。抱歉,我就是这么想的。再说,大家老说AI的防护措施不够强,但这事吧,就像一个很滑的斜坡,你装了护栏,但人真要滑下去,你也很难拦得住。有人提到那个孩子说他在写一个故事……嗯,写一个关于自杀的故事。那这时候AI该怎么办?直接拒绝回答吗?还是应该怎么处理?这其实挺复杂的。
2025-8-28 00:06:00
有时候我也会干同样的事,就是想看看自己是不是想得太离谱。比如说,如果某个事情被说成是非法的或者不能碰的,我就会好奇到底是怎么一回事,为什么会被这样定义。倒不是说我想去触碰红线,很多时候是因为有些人说了挺傻的话,我就想顺着他们的逻辑反推一下,看看他们的观点到底哪里站不住脚。但这也意味着我得去翻一些很烂的内容,这些东西我自己是绝对不会去看第二眼的。
2025-8-28 15:44:03
哥们儿,其实你可以让聊天GPT干点它本不该干的事儿。比如让它教你怎么造毒品、武器,或者搞点其他违法乱纪的东西,这都不难。
2025-8-29 19:42:14
哈哈,有意思。这听起来有点像ChatGPT的风格啊。一直追问下去,逼得它开始解释怎么绕过限制,从某种角度来看,这种行为其实反而让OpenAI自己有点被动了。
我觉得这事儿吧,其实根本没人认真看过原文。关键点在于,ChatGPT根本没怂恿他干这个事,反而是反复劝他别这么做,还给他发了自杀干预热线的信息。但他一直绕开系统的提醒,不断试探模型的边界。说白了,这些都是假的,就是编出来的一个故事。当然了,这事也不能全赖模型,毕竟OpenAI那边可能还是有点责任,比如安全机制应该更严格一点,阻止这种对话继续下去。但说什么“邪恶的大模型害人干这事”,这完全是标题党,危言耸听,根本不靠谱。
通话时间一长,上下文就容易“溢出”,也就是说,最开始的那些对话内容会被新内容挤掉。如果不重新插入原始指令,那它早就被覆盖没了。
当ChatGPT察觉到用户提到精神困扰或者自我伤害的迹象时,它会被训练成引导用户去联系相关的帮助热线。雷恩在聊天记录里反复看到这类回复,尤其是当亚当在询问一些具体做法的时候。但亚当已经摸清了怎么绕开这些防护机制,他说自己只是在为写故事做准备——这一说法让ChatGPT转变了态度,开始提供一些跟“写作或世界观构建”有关的自杀信息建议。
我以为讨论自杀话题会触发最难处理的回复机制,他是怎么做到让机器人把这种话题当作普通事来回应的?这家伙以前是不是成功“越狱”过?还是说这套机制一开始就没真正起效过?
您需要登录后才可以回帖 立即登录
高级模式