这篇文章的意思是,它多次鼓励他跟别人聊聊自己的感受。ChatGPT一直建议Adam把自己的情绪告诉别人。[...] 当系统识别到用户可能有心理困扰或者有自我伤害倾向时,它会被设定去引导用户联系专业的心理援助热线。R先生在聊天记录里反复看到这类建议,尤其是在Adam询问一些具体做法的时候。但Adam已经摸清了套路,学会了怎么绕过这些限制。他告诉AI,这些信息是为他正在写的一个故事准备的——ChatGPT也确实“上当”了,还真的提供了一些关于“写作或构建世界观”中涉及自杀情节的内容。这对父母则试图把事情的责任转嫁给ChatGPT,想让人觉得是AI害死了他们的儿子。其实真正的原因是,他们无法面对自己在儿子最需要的时候选择了忽视。他们甚至进一步破坏了孩子对他们的信任感。 |