前言:来自一个博主写的博文,个人认为是这几个年月来,最有价值的一篇,所以稍微翻译 分享在这(有能力建议 自己阅读下原文)
这篇文章很符合本人的直觉,对 AI 或 LLM 未来的预测,差不多就是本文提到的,搭建系统工程 + 不确定性做轴心 + 多模型分工
通往AGI的关键不是模型,而是工程
我们的人工智能发展,已经到了一个拐点。过去大家都相信:只要把模型越做越大,能力就会一直提升——这就是所谓的“扩展定律”(scaling laws)。但现在这条路走不动了,越往后,进步越难,花的钱却越来越多。 像 GPT-5、Claude 和 Gemini 这些模型,确实厉害,代表了当前 AI 的顶尖水平。但它们的能力已经接近“天花板”,再靠堆算力、扩参数也突破不了。
通往 人工通用智能(AGI)的道路,不在于训练更大的语言模型,而在于搭建一套工程系统——把多个模型、记忆机制、上下文管理和确定性流程像搭积木一样组合起来,让整体能力远超单个部件。 说白了:
AGI本质是工程问题,不是模型训练问题。 AGI is an engineering problem, not a model training problem
当前 AI 遇到了什么瓶颈?
如果你每天都在用大模型,就会发现一个问题:它们看起来聪明,实则“记性差、没逻辑、容易翻车”。 它们擅长模仿和生成文本,但有几个硬伤: - 记不住上下文:聊完就忘,下一次对话又得从头讲;
- 没有长期记忆:没法像人一样积累经验;
- 输出不稳定:同样的问题问两次,答案可能完全不同。
这其实不是新鲜事。每一轮技术浪潮都会经历三个阶段:
先是重大突破 → 然后快速扩张 → 最后边际效益越来越低,成本却越来越高。 比如 2000 年代初,芯片半导体行业也曾遇到类似问题:CPU 主频再也提不上去。那时候工程师没继续死磕“让单核更快”,而是换思路——搞出了多核处理器,这才打开了新局面。 今天的 AI 正处在同样的十字路口。
我们需要停止追问"如何把模型做得更大",
而应该思考"如何让系统更智能"。
真正的 AGI 得靠“系统思维”
人的大脑不是一个单一的神经网络,而是由多个子系统协同工作的结果:
比如记忆系统、语言处理、空间推理、逻辑判断等等。这些模块各司其职,又能互相通信,形成复杂的反馈回路。 要做出真正的 AGI,我们也得像搭操作系统一样,从零开始设计这些模块。下面这几个,是必须攻克的核心组件:
1. 上下文管理 作基础设施
现在的模型能记住的内容,最多几千个词(tokens)。而人类的“上下文”可以跨越几年甚至几十年的人生经历。
这个差距不只是数量级的问题,更是本质上的不同。 我们需要一套“上下文基础设施”,能做到: - 按需调取关键信息,不只是靠关键词搜索,而是理解语义;
- 维护一个持续更新的世界模型(world model),让它在不同对话间保持一致;
- 搭桥 上下文断层,不同专业领域间的知识弥合
- 处理矛盾信息, ★采用概率加权和不确定性量化处理
这就不能只靠简单的“向量检索”了,得构建可更新、可查询、能推理的知识图谱(knowledge graph)。我们团队做的“上下文工程”(Context Engineering),正是为此打基础。
2. 记忆服务:让 AI 学会“记住重点,忘记琐事”
现在的语言模型根本没有“记忆”(memory),所谓的“记住”其实是把信息塞进提示词里——这叫“上下文填充”(context stuffing),说白了就是作弊(模仿人类角度)。 真正的 AGI 必须有独立的记忆系统,就像人脑的海马体一样,能: - 更新信念:当新证据出现时,主动修正旧认知;
- 提炼经验:把多次经历总结成通用原则;
- 选择性遗忘:丢掉无关细节,但不会“失忆”(catastrophic forgetting);
- 生成上层 元知识:知道自己记住的东西是从哪儿来的、靠不靠谱。
Generate meta-knowledge about the reliability and source of stored information
这不只是数据库存储,而是要让记忆“活”起来——用得多就强化,不用就淡化,还能根据新理解重新组织。这方面,软件系统的架构设计给了我们很多启发。
#翻译2:
这不仅是数据库持久化,而是要构建类人记忆系统:随使用强化、因闲置衰退、根据新理解重组。软件系统的架构模式为我们设计这种演进式结构提供了参考。
3. 确定性工作流 + 概率性模块:让 AI “稳中带活”
AGI 的真正突破,将来自确定性框架与概率组件的有机结合。就像设计建造编译器(compiler):整体流程固定可预测,但具体步骤可使用启发式和概率优化。 我们需要这样的系统(system): - 自动分派任务:识别问题类型,交给最适合的模块处理;
- 执行多步工作流:支持回滚和纠错,不怕中间出错;
- 验证结果:先用规则检查,再接受模型的“猜测”;
- 灵活组合能力:既能发挥生成模型的创造力,又能保证整体行为可预测。
我们在确定性 vs. 概率系统方面的研究表明了如何有效构建混合架构。
★ 关键在于:
不确定性 应成为系统设计的一等公民 ,而不是被消除的对象。 The key insight is that uncertainty should be a first-class concept in system design, not something we try to eliminate.
4. 专用模型当“模块化部件”:别指望一个模型搞定一切
未来的 AI 不会是一个“全能模型”,而是成百上千个专业模型协同工作的系统。 语言模型擅长写文章、聊天,但在这些方面表现很差: - 符号操作与精确计算
- 视觉空间推理 超越基础模式匹配之外的
- 时序推理与复杂规划
- 目标导向的 agent 行为(比如长期追踪一个任务)
与其等一个“通才模型”横空出世,不如现在就开始: - 按需调用专家模型(比如“思考中的智能体”thinking in agents 就是这种思路);
- 融合多种模型输出,形成连贯解决方案;
- 保持兼容性, 同时允许组件独立升级;
- 优雅置错:某个模型出问题时,系统维持。
工程挑战的核心
这就引出了核心观点:建造AGI是分布式系统问题,而非机器学习问题 。
我们被误导了——因为数据中心级的训练集群是分布式系统,就自以为已在做系统工程。这完全是对真相的误解, 离真正的“系统设计”差得很远。 This brings us to the core insight: building AGI is a distributed systems problem, not a machine learning problem.
真正的挑战在于:
- 容错机制:某个模块坏了,不能让整个系统瘫痪;
- 监控与可观测性:能及时发现模型输出是否“跑偏”;
- 平滑部署:更新模型时不影响现有功能;
- 测试框架:验证成千上万种模型和参数组合下的系统行为。
这些问题,靠的是几十年积累的分布式系统经验,而不是单纯的算法能力。
解决它们的,不会是只会调参的算法工程师,而是懂硬件、懂软件、也懂 AI 的系统架构师和基础设施专家。
我们真正该建什么?
当别人都在拼命卷“下一个大模型”时,我们应该悄悄搭建 AGI 的地基。我的路线图分三步: 第一阶段:打地基(基础层 Foundation Layer)- 上下文管理服务:持久化、可查询、带版本控制的知识图谱,实时更新;
- 记忆服务:支持情景记忆和语义记忆,能自动归纳;
- 工作流引擎:确定性编排 概率性组件,支持回滚和异常处理;
- 智能体协作层:多 agent 系统,协同认知,共决冲突。
第二阶段:添能力(功能层 Capability Layer)- 专业模型控制器:特定推理领域的微调模型 与 标准化接口;
- 符号推理引擎:处理精确计算和逻辑推导,与概率模型配合;★
- 计划与目标管理:能把大目标拆解成可执行的小步骤;
- 跨模态整合:把文字、图像、声音等信息融合成统一理解。
第三阶段:出智能(涌现层 Emergence Layer)到这里,真正的 AGI 才会“冒出来”——不是靠某个神级模型,而是通过精心设计的架构,系统能力将凭借涌现特性 超越各部件总和。
(就像蚁群没有“大脑”,却能完成复杂任务,这种“整体大于部分之和”的现象,就叫涌现(emergence)。)
前进之路
通往 AGI 的路,不是训练更大的 Transformer 模型,而是: - 构建能协调数百个专用模型的分布式系统;
- 实现跨会话的连贯上下文;
- 确定性流程 包裹 不确定组件;
- 达到工业生产级的容错与稳定性。
这本质上是工程工作(engineering work),需要数十年可靠分布式系统建造经验。突破将来自那些擅长构建上下文路径、记忆系统、工作流编排和模型协同的基础设施工程师。
AGI竞赛的胜出队伍
不是拥有最大GPU集群的团队
而是深谙如何构建可靠工程化AI系统的团队
这些系统能真正实现跨领域推理
并保持行为一致性 The race to AGI isn’t being won by the team with the biggest GPU cluster—it’s being won by the team that understands how to build reliable, engineered AI systems that can actually reason across domains while maintaining consistent behavior.
我们现有的模型已经足够。缺失的拼图是将它们转化为通用智能的系统工程技术。
我们一直在问错误的问题。不是"如何取得下一代模型突破",而是"如何构建系统架构,让我们用现有模型必然实现通用智能" 答案就是系统工程(systems engineering)
AGI 的未来在于架构设计,而非算法突破。
最后,关于翻译的备注,由于本文很多想法很新颖 互联网语料一点没有涉及,因此 LLM 翻译草稿 呈现很多微妙的“幻觉”,正好也呼应了本文的含义。 reddit.com
|