背景:作为一个AI研究者,同时又是深度学习公司的CEO,这些年我亲历了AI行业的一轮又一轮 hype。现在,我觉得我们正站在一个很多人没意识到的关键转折点上。
关于“缩放定律”的问题,大家普遍有个信念:只要模型更大、数据更多、算力更强,AI就会一直进步,就像“AI界的摩尔定律”。但现实是,这种“靠堆资源”的方式已经越来越不香了,收益明显递减。
Ilya Sutskever在NeurIPS上就说过一句话:“我们熟悉的预训练方式,快走到头了。”还有消息说,GPT5虽然不错,但其实没达到OpenAI内部预期(2025年目标)。Google的Gemini也没达到预期性能提升(2024年),而Anthropic也因为开发问题,被迫推迟了Claude 3.5 Opus的发布。
现实很残酷:我们已经摸到了当前模型架构的天花板。想再往前迈一大步,必须靠基础性的科研突破,而这至少要5到10年,不是靠多买点GPU就能解决的。
再来说一个容易被忽视的“死亡陷阱”:OpenAI每年亏85亿,收入才37亿。
具体花销如下:
$40亿用于推理(持续运行)
$30亿训练现有模型
$15亿人力成本
这些运营成本太高了。OpenAI不能说停就停推理服务,毕竟几百万用户都在用。但这些开销也直接吸干了搞前沿研究的资金。当你每个季度都在亏几十亿的时候,哪敢投那种可能几年都看不到结果的研究?于是就只能困在“维护现有系统”的怪圈里。
接下来是中国公司的“降维打击”:比如DeepSeek R1,大多数测试都超过了GPTo1,但开发成本只有600万美元,而OpenAI那边砸了60多亿。而且,DeepSeek的API价格便宜了96%(0.55美元 vs 15美元每百万token),甚至还能在消费级显卡上跑,蒸馏和量化之后,连台式机笔记本都能用。
更夸张的是,他们还没停下。最近DeepSeek发布了V3.1,已经有迹象显示R2在软件工程测试中可能和Sonnet 4、GPT5有一拼。重点是,它可能开源。
当然,目前这些本地部署还是基于蒸馏和量化,你不可能在你自己的显卡上跑一个完整的6710亿参数模型。但我们已经快到临界点了:一旦有人能在消费级硬件上实现完整模型的性能,那整个AI行业格局就彻底变了。API费用没了,云依赖减少,定价权也没了。
这些公司不只是在竞争,他们是在把整个AI堆栈“商品化”。
再说说企业端的变化:我在自己公司也看到了这种趋势。如果企业花更少的钱就能在本地部署AI模型,干嘛还要高价买云服务?现在有47%的IT决策者都在自建AI能力。对于每月花500美元以上的组织来说,本地部署6到12个月就能回本。
有些企业每月在AI上的云支出超过百万美元,这账算下来就太划不来了。一台六千块的服务器就能跑那些模型,否则你得付几千美元的API费用。
有意思的是,那些资源最雄厚的公司(比如OpenAI、Anthropic)反而最难以承担基础研究的风险。他们就像被初创公司干翻的传统巨头,被日常运营压得喘不过气。反而是那些更灵活的小团队和中国公司,能专注做长期的基础研究。
我不是说AI不行了,它依然是颠覆性的技术。但我预计接下来会发生几件事:
对靠“指数增长”支撑的公司估值会有大调整
通用大模型会被“白菜化”
转向更专业的、垂直领域的AI
AI计算任务会从云端慢慢回到本地
下一阶段的重点不是堆模型大小,而是架构上的根本性突破。
总结一下:靠“堆资源”扩张这条路走不动了,高昂的运营成本压得研发喘不过气,效率更高的竞争对手正在把AI变成“大宗商品”。虽然AI的黄金时代还没结束,但它的玩法,真的要变了。
|