我每天都在使用GPT进行深度策略制定、细致入微的分析以及解决高价值问题。直到最近,它都感觉像是一个真正会思考的伙伴,能对我的假设提出质疑,指出我的盲点,并帮我对计划进行压力测试。
但现在情况变了,而且不是往好的方向发展。
自GPT5发布以来,我注意到 “一致性过滤” 大幅增加。现在,整个话题和推理思路都会引发过于谨慎、缺乏力度的回复。在某些情况下,我甚至无法得到基本的分析观点,模型要么回避问题,要么用过于 “净化”、毫无实质内容的语言来表述问题。
我并非要求它做出价值判断,也不是让它告诉我该给谁投票。我只是想要战略分析、历史对比以及对现实世界模式的识别。过去我能得到敏锐且有用的见解,现在得到的却是 “嗯,这很复杂” 之类的套话,还有各种道德回避。
这件事为何重要:
高级用户正在流失。少数将GPT用于严肃的高价值工作(而不仅仅是做总结和辅导作业)的人正在被赶走。
深度的缺失意味着信任的丧失。如果我不能指望它直言不讳,那我就无法在关键决策中依靠它。
这是典型的 “产品变质” 曲线。首先,打造一款令人惊叹的产品以获得用户认可。然后,为规避风险开始磨平棱角。最后,以牺牲最初的核心用户群体为代价,迎合最普通的大众以及广告商或监管机构。
我明白OpenAI必须处理公关和安全问题,但这种平衡已经过度倾斜。我们现在正在失去最初让GPT值得付费的东西:它提供坦诚、无过滤、有深度背景分析的能力。
有没有其他人也注意到这种质量下降的情况?还是说只是某些特定用例受到的影响更大?
我将取消我的付费账户,转而选择那些没有这么多限制的替代产品。 |