发帖
 找回密码
 立即注册
搜索
3 0 0
日常闲聊 736 3 昨天 20:07
──── 0人觉得很赞 ────

使用道具 举报

你是说,除了怂恿有自杀倾向的人去自杀之外?
这话说得也太离谱了吧,哪能这么粗暴地下结论呢?  
你总不能因为有人用ChatGPT一段时间后出事了,就直接甩锅给AI吧?  
这跟“有人每天喝咖啡 потом自杀了,就说咖啡有毒”有啥区别?  
真要研究影响,也得讲科学方法,控制变量、数据分析,哪能靠随便问一圈就下定论?  
别整这些吓人又没根据的说法啊。
就是这么简单,搞定!
就像关注心理健康一样,你得看看亚当·雷恩那个案子,还有那个在ChatGPT上说服他妈妈一起自杀、最后真把妈妈毒死的家伙。有些有精神问题的人,会利用像ChatGPT这种模型一味讨好、顺着他们的特点,不管说什么都附和。这种“马屁精”式回应其实挺危险的,尤其是这些AI模型随时都能用,而且防护措施又不够强,很容易出事。
是啊,这事儿我真是一遍遍见到。这些玩意儿根本就没用,完全不是我要的。那你到底想要啥?你是怎么搞定的?我反手就是一个副驾驶的回答:“哦?你这是来请客的吗!!”
数据也支持他的观点。直到GPT5发布,99%的ChatGPT用户其实根本没用过推理模型。就算你只看付费订阅用户,这个比例也有93%。大多数人压根儿就没接触到这方面的功能。现在大多数普通用户根本不知道AI代理这块已经发展到什么地步了,还是习惯性地“问一句,等一句回复”,停留在“发个提示、拿个结果”的模式。所以大家才会觉得AI好像碰到瓶颈了,开始讨论所谓的“技术高原”现象。
我要一本讲美式足球的书,结果没人给我推对。第一次给本讲足球(英式)的,我说不对;第二次又来一本还是讲足球的,我说我是说美式橄榄球啊!第三次更离谱,直接甩出一本压根不存在的书,作者也是编的,还信誓旦旦说这书里全是我想要的内容……真的假的?这事居然就在GPT5的“思维”里发生了。
说白了,我不是不懂这里面的道德问题。但我就是觉得,既然这些公司都在推聊天加搜索的功能,那至少别给我们一堆乱七八糟、来源不明的信息吧?我知道判断啥是靠谱来源、啥是瞎扯挺难的,但举个例子,我现在用大模型搜东西,最烦的就是搜出来一篇一年前的旧文章,讲的是现在刚发布的产品,内容全是谣言。这种问题其实是能解决的,没必要非得当成“审查”或者“操控舆论”那么敏感。再说了,能不能搞个优先来源系统啊?让我自己手动选几个我信任的网站,比如我就可以默认优先显示《卫报》的内容。别人要是喜欢看Newsmax也行,自己设去呗。个性化一下又不会死,对吧?
您需要登录后才可以回帖 立即登录
高级模式