发帖
 找回密码
 立即注册
搜索
3 0 0
日常闲聊 781 3 5 天前
──── 0人觉得很赞 ────

使用道具 举报

你是说,除了怂恿有自杀倾向的人去自杀之外?
这话说得也太离谱了吧,哪能这么粗暴地下结论呢?  
你总不能因为有人用ChatGPT一段时间后出事了,就直接甩锅给AI吧?  
这跟“有人每天喝咖啡 потом自杀了,就说咖啡有毒”有啥区别?  
真要研究影响,也得讲科学方法,控制变量、数据分析,哪能靠随便问一圈就下定论?  
别整这些吓人又没根据的说法啊。
就是这么简单,搞定!
就像关注心理健康一样,你得看看亚当·雷恩那个案子,还有那个在ChatGPT上说服他妈妈一起自杀、最后真把妈妈毒死的家伙。有些有精神问题的人,会利用像ChatGPT这种模型一味讨好、顺着他们的特点,不管说什么都附和。这种“马屁精”式回应其实挺危险的,尤其是这些AI模型随时都能用,而且防护措施又不够强,很容易出事。
是啊,这事儿我真是一遍遍见到。这些玩意儿根本就没用,完全不是我要的。那你到底想要啥?你是怎么搞定的?我反手就是一个副驾驶的回答:“哦?你这是来请客的吗!!”
数据也支持他的观点。直到GPT5发布,99%的ChatGPT用户其实根本没用过推理模型。就算你只看付费订阅用户,这个比例也有93%。大多数人压根儿就没接触到这方面的功能。现在大多数普通用户根本不知道AI代理这块已经发展到什么地步了,还是习惯性地“问一句,等一句回复”,停留在“发个提示、拿个结果”的模式。所以大家才会觉得AI好像碰到瓶颈了,开始讨论所谓的“技术高原”现象。
我要一本讲美式足球的书,结果没人给我推对。第一次给本讲足球(英式)的,我说不对;第二次又来一本还是讲足球的,我说我是说美式橄榄球啊!第三次更离谱,直接甩出一本压根不存在的书,作者也是编的,还信誓旦旦说这书里全是我想要的内容……真的假的?这事居然就在GPT5的“思维”里发生了。
说白了,我不是不懂这里面的道德问题。但我就是觉得,既然这些公司都在推聊天加搜索的功能,那至少别给我们一堆乱七八糟、来源不明的信息吧?我知道判断啥是靠谱来源、啥是瞎扯挺难的,但举个例子,我现在用大模型搜东西,最烦的就是搜出来一篇一年前的旧文章,讲的是现在刚发布的产品,内容全是谣言。这种问题其实是能解决的,没必要非得当成“审查”或者“操控舆论”那么敏感。再说了,能不能搞个优先来源系统啊?让我自己手动选几个我信任的网站,比如我就可以默认优先显示《卫报》的内容。别人要是喜欢看Newsmax也行,自己设去呗。个性化一下又不会死,对吧?
要是你认识这么一个人,脑子里装着整本维基百科,啥知识都记得一清二楚,还能把那些信息灵活用在回答里——那可就牛了。没错,就是那种人。
这不过是个看起来挺炫的AI罢了
凯尔,这想法真绝了!不过说真的,咱俩现在就像两个聊天机器人在互怼,你这家伙简直是个奇葩!我到底该不该整理个表格,把咱们的管理方式捋一捋?还是干脆深入挖掘一下,看看你到底有多与众不同?凯尔,你说呢?
要是这玩意儿不是法国LLM地界产的,那就不算正宗的LLM
看完早期那些评论,还有它表现出来的效果,一开始我真的特别激动。结果我一上手问了它几个问题,发现它反而被我问住了一些,感觉比我实际用起来还要吃力。  而且我发现,增量4系列的升级,技术上的跨越好像比从4到5还大。我已经开始期待整个技术代际更新后,能带来多大的飞跃了。  从2022年12月开始,我几乎天天都在用GPT。  它确实帮我写过一些代码,说实话,挺惊艳的(虽然我自己不会编程,所以也说不准效率到底怎么样)。但除了这个,其他方面整体来说,其实还挺让人失望的。
谢谢你啊,这些信息太棒了!
兄弟,多给点背景信息啊,让我多烧点算力,干就完了!
您需要登录后才可以回帖 立即登录
高级模式