我真受不了那种靠“激情”堆出来的思考模型。是,它们是聪明那么一丢丢,但有时候反应慢得要命,等半天都等不来结果。更离谱的是,在某些任务上,ChatGPT5 Instant 居然比 4o 或 4.1 还拉胯,纯纯折磨人。我觉得啊(真不是故意玩谐音),OpenAI 疯狂押注思维模型,根本原因就是这类模型跑起来占的显存(VRAM)比大模型少多了,但效果又差不太多。说白了,就是为了省钱,省硬件成本,多赚点利润。商业公司嘛,最终图的不就是这个?编辑:Cerebras 倒是搞出了个贼快的推理方案,解决了速度问题。但我就纳闷了,他们怎么不跟 OpenAI 合作呢?现在 Cerebras 是开源了个模型(OSS),虽然推理和回答有时候快得离谱,但模型本身真挺烂的,跟真正的 OAI 模型比差远了……所以吧,等于没解决。用那个 OSS 的感觉,跟用 Llama 差不多——原始、傻乎乎的,没啥智能味儿。 |