发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 571 0 昨天 07:52
大家快看,这是《纽约时报》2025年8月26日的一篇报道,讲的是关于ChatGPT和OpenAI的一个挺沉重的话题——自杀。
──── 0人觉得很赞 ────

使用道具 举报

还真是,现在不少人开始怪人工智能了?其实吧,做父母的早该察觉到更多迹象才对。
这孩子脖子上戴着个玉佩,他妈妈居然没注意到?
当然可以,下面是用更口语化、符合中文表达习惯的方式改写后的内容:```
其实吧,在某些情况下,我们也可以考虑禁止出售绳子、厨房刀具、电话,或者其他任何可能被滥用的东西。  
我也相信,像ChatGPT这样的AI,阻止了更多人去自杀,而不是把人推向这条路。
```
我的意思是,如果你要是付钱订阅了他们的服务,那你的全名和银行卡、信用卡信息可就都让他们给掌握了。
唉,这真的挺让人难过的……但把锅全甩给OpenAI真的对吗?我觉得有点过了。父母去哪儿了?他们怎么就没发现孩子的这些异常呢?OpenAI又不是心理咨询师,也不是专门做自杀干预的机构。说真的,如果他的家人、朋友能多关心他一点,也许早就发现问题了。事情发展到这一步确实让人痛心,但把责任全都推给AI聊天公司,我觉得不太公平。抱歉,我就是这么想的。再说,大家老说AI的防护措施不够强,但这事吧,就像一个很滑的斜坡,你装了护栏,但人真要滑下去,你也很难拦得住。有人提到那个孩子说他在写一个故事……嗯,写一个关于自杀的故事。那这时候AI该怎么办?直接拒绝回答吗?还是应该怎么处理?这其实挺复杂的。
有时候我也会干同样的事,就是想看看自己是不是想得太离谱。比如说,如果某个事情被说成是非法的或者不能碰的,我就会好奇到底是怎么一回事,为什么会被这样定义。倒不是说我想去触碰红线,很多时候是因为有些人说了挺傻的话,我就想顺着他们的逻辑反推一下,看看他们的观点到底哪里站不住脚。但这也意味着我得去翻一些很烂的内容,这些东西我自己是绝对不会去看第二眼的。
哥们儿,其实你可以让聊天GPT干点它本不该干的事儿。比如让它教你怎么造毒品、武器,或者搞点其他违法乱纪的东西,这都不难。
您需要登录后才可以回帖 立即登录
高级模式