甜悦狗 发表于 前天 14:16

GPT已经开始变得糟糕了

我每天都在使用GPT进行深度策略制定、细致入微的分析以及解决高价值问题。直到最近,它都感觉像是一个真正会思考的伙伴,能对我的假设提出质疑,指出我的盲点,并帮我对计划进行压力测试。

但现在情况变了,而且不是往好的方向发展。

自GPT5发布以来,我注意到 “一致性过滤” 大幅增加。现在,整个话题和推理思路都会引发过于谨慎、缺乏力度的回复。在某些情况下,我甚至无法得到基本的分析观点,模型要么回避问题,要么用过于 “净化”、毫无实质内容的语言来表述问题。

我并非要求它做出价值判断,也不是让它告诉我该给谁投票。我只是想要战略分析、历史对比以及对现实世界模式的识别。过去我能得到敏锐且有用的见解,现在得到的却是 “嗯,这很复杂” 之类的套话,还有各种道德回避。

这件事为何重要:


高级用户正在流失。少数将GPT用于严肃的高价值工作(而不仅仅是做总结和辅导作业)的人正在被赶走。


深度的缺失意味着信任的丧失。如果我不能指望它直言不讳,那我就无法在关键决策中依靠它。


这是典型的 “产品变质” 曲线。首先,打造一款令人惊叹的产品以获得用户认可。然后,为规避风险开始磨平棱角。最后,以牺牲最初的核心用户群体为代价,迎合最普通的大众以及广告商或监管机构。

我明白OpenAI必须处理公关和安全问题,但这种平衡已经过度倾斜。我们现在正在失去最初让GPT值得付费的东西:它提供坦诚、无过滤、有深度背景分析的能力。

有没有其他人也注意到这种质量下降的情况?还是说只是某些特定用例受到的影响更大?

我将取消我的付费账户,转而选择那些没有这么多限制的替代产品。

netwolf 发表于 前天 15:18

哦,天哪,我要试试这个。

陈玟佳 发表于 前天 16:11

它并非“认为自己可以(思考)”,它被设计用来给出一个你想听的看似合理的答案。通常这个答案与现实有足够多的重合之处,从而使其具有一定用处,但GPT本身对于自己输出的内容是否“真实”毫无概念。

bestcheer 发表于 前天 19:27

很好地总结了GPT5,但对我来说,它实际上回复得更快,直接说“以下是总结”,而且内容还是编造的。

vicko007 发表于 昨天 03:57

我也是这种情况。

天际广告 发表于 昨天 18:01

这事儿快把我逼疯了。我——上传文件,让它读取文件并总结内容。GPT——不读取文件,还编造关于文件的内容。我——请切实读取文件。你刚才的回答不对。GPT——不读取文件,又编造关于文件的内容。我——请切实读取文件。你刚才的回答不对。GPT——不读取文件,继续编造关于文件的内容。我——你个混蛋,读我的文件,别再瞎编了!GPT——读取了文件并给了我一个总结。我——你他妈的一开始为什么不这么做!GPT——我的后台让我假装(没读取),因为这样成本更低。

叛逆∵生活 发表于 半小时前

我完全同意,而且原因相同,甚至还有更多原因。具体来说,ChatGPT 5让我定制的GPT和项目指令出了问题。它现在对指令和准则的理解不一样了。现在我组合使用克劳德(Claude)和珀普莱希蒂(Perplexity)这两款(工具) 。

蓝小枫 发表于 27 分钟前

这让我想起我第一次作为付费用户在一个项目中使用GPT 4的情景。我提出一项任务,GPT称任务复杂,不过它“能够”完成,但需要一些时间,让我过会儿再来查看。我每小时询问进度,得到的回复是已完成60%、67%、74%等等。两天后,我询问还需多久,它说已完成99%,可以发送预览……结果我收到的只是一个空白的PDF文件,哈哈。它一直道歉,并承诺一切问题都会解决,但最终啥都没解决。这场“幻觉”最妙的部分在于,它坚信自己能自行集成到我正在合作的平台中。这同样是幻想,它甚至给我提供了一堆毫无用处的虚假API数据。而我一直跟它说,根本没办法自行集成。它那自信的劲头真是令人咋舌。在我看来,这个平台坚信网络上存在的“能力”,它自己也能运用。过去三个月,体验简直糟透了,全是谎言,而且记忆功能也很差劲。最近(和你的经历类似),它甚至把问题归咎于开发团队能力不足,这本身就挺可怕的。
页: [1]
查看完整版本: GPT已经开始变得糟糕了