在人工智能领域,“越大越好”似乎成了近年来的默认信条——从GPT系列到Gemini,巨头们不断刷新模型参数规模与训练数据量,试图通过算力堆砌叩开通用人工智能(AGI)的大门。然而,2025年初由前OpenAI首席技术官Mira Murati联合创立的Thinking Machines Lab,却在旧金山TED AI大会上抛出了不同的答案:首个超级智能将是“超人学习者”(Superhuman Learner),而非单纯的“规模怪兽”。这一观点不仅引发了行业对AI进化路径的重新审视,更揭示了当前技术路线的深层局限。
1. 当前AI的核心困境:被动训练与经验遗忘
1.1 “一次性聪明”:从编程助手到数学解题的局限
Thinking Machines Lab强化学习研究员Rafael Rafailov在演讲中尖锐指出,当前AI系统本质上是“任务执行者”而非“学习者”。以主流编程助手为例,当用户要求其完成复杂功能开发时,模型或许能通过海量代码训练生成可行方案,但次日面对相似需求时,它依然会像“第一天上班”一样从零开始——既不记得昨日的实现逻辑,也无法复用已探索的抽象规律。更典型的场景是数学解题:AI可以通过模式匹配解出微积分题目,却不会像人类数学家那样将推导中发现的定理抽象化、系统化,下次遇到同类问题仍需重新“计算”而非“调用知识”。
Tip:灾难性遗忘(Catastrophic Forgetting)是当前AI的普遍缺陷。传统神经网络在学习新任务时,新数据训练会覆盖旧任务相关的权重参数,导致模型无法像人类一样积累经验。例如,训练一个识别猫的模型后再训练识别狗,它可能会忘记如何识别猫,这种“边学边忘”的特性使其难以形成持续进化的认知体系。
1.2 规模扩张的“边际效益递减”:算力堆砌的天花板
尽管OpenAI、DeepMind等机构仍在推动“规模驱动”策略,Rafailov却认为这一路径存在根本局限:“我们并非面临规模饱和,而是陷入了范式陷阱。”他强调,即便模型参数从千亿级跃升至万亿级,从“只能与文本交互”进化到“能操控物理世界”,本质上仍是“通用代理”(General Agent)而非“通用智能”(General Intelligence)。这种差异的核心在于:当前AI的“能力”源于静态知识库的检索与匹配,而非动态学习能力的迭代——就像图书馆的藏书量再大,若读者不会归纳总结,也无法形成独立思考能力。
2. 超人学习者:AI进化的新范式
2.1 从“被动接收”到“主动探索”:学习本质的重构
Rafailov在其NeurIPS 2024论文中提出,“学习”的核心是“主动行为”:智能体需能自主设定目标、设计实验、验证假设,并将发现内化为长期知识。这与当前AI的“训练”模式形成鲜明对比——训练是外部数据的被动输入,而学习是内在动机驱动的主动迭代。基于这一理念,Thinking Machines Lab提出了“自主代理学习”(Agentic Learning)框架,其核心是让AI构建“自我进化的神经代理”(Self-Evolving Neural Agents):通过与环境交互生成新训练数据,动态调整学习策略,而非依赖人工标注的静态数据集。
Tip:元学习(Meta-Learning)是支撑“主动学习”的关键技术之一,也被称为“学会学习”(Learning to Learn)。与传统AI专注于单一任务不同,元学习让模型通过跨任务经验抽象出通用学习策略,例如人类通过“解题思路”而非“具体答案”应对新问题。Thinking Machines Lab的研究正是基于这一思路,试图让AI具备“策略迁移”能力。
2.2 STAR算法:让AI像科学家一样“做研究”
为验证“超人学习者”的可行性,Rafailov团队开发了STAR算法(Self-Tuning Active Reasoner)。该框架允许AI主动设计实验验证假设:在代码生成任务中,模型会先提出“某类错误可能源于循环逻辑漏洞”的猜想,然后自动生成测试用例验证,最终调整代码生成策略。实验数据显示,STAR算法相比GPT-4任务完成率提升37%,且重复错误率降低62%——这意味着模型真正“记住”了错误原因,而非简单修正单次输出。
2. 路线之争:规模扩展与超人学习的技术鸿沟
2.1 两种智能路径的核心差异
| 技术路线 | 核心目标 | 实现方式 | 代表案例 |
|---|---|---|---|
| 规模扩展路线 | 优化静态知识库容量与检索效率 | 增加参数规模、扩充训练数据(文本/视频/交互日志) | GPT-5千亿参数集群训练、Gemini多模态数据融合 |
| 超人学习路线 | 构建动态认知架构与行为迭代能力 | 设计自主探索机制、知识内化模块、元学习策略 | Thinking Machines的自我进化代理、STAR算法 |
2.2 行业大佬的隔空辩论
面对Thinking Machines的挑战,DeepMind首席科学家在近期访谈中回应:“规模扩展本身包含涌现的学习能力,例如大模型已展现出零样本推理等小模型不具备的特性。”这一观点凸显了行业的根本分歧:规模派认为“量变引发质变”,学习能力会随数据与算力增长自然涌现;而超人学习派则强调“架构决定上限”,若不重构AI的认知模式,即便参数达到万亿级,也只是“更聪明的计算器”。
3. 实现超人学习者:三重挑战与突破方向
3.1 硬件瓶颈:从“静态推理芯片”到“神经形态计算”
当前AI芯片(如GPU)专为静态数据并行处理设计,而动态学习需要实时更新权重参数与知识表征,两者存在架构冲突。IEEE《持续学习的硬件瓶颈》报告指出,传统芯片在动态学习场景下的能耗是静态推理的8-10倍。对此,行业开始探索神经形态计算芯片(如IBM TrueNorth),其模仿人脑神经元的稀疏激活模式,可实现低功耗实时学习,为超人学习者提供硬件基础。
3.2 理论难题:知识表征与迁移的“认知架构”
Meta AI在《Self-Supervised Learning》综述中提到,自监督学习虽能让AI从无标注数据中提取结构化知识(如物体轮廓、语法规则),但如何将这些知识“固化”为可复用的抽象概念仍是未解难题。例如,人类会将“苹果”“香蕉”抽象为“水果”,并推理出“水果可食用”的通用规律,而当前AI只能记住“苹果是红色的”“香蕉是黄色的”等具体特征,缺乏跨类别知识迁移能力。
3.3 资本转向:从“参数量竞赛”到“智能密度”投资
行业资本的流向也反映了路线分歧。PitchBook 2025年Q1 AI融资报告显示,动态学习赛道融资同比增长300%,而规模扩展类模型融资下降15%。风险投资机构a16z在《AI Agents投资趋势》中明确:“我们正从‘参数量崇拜’转向‘每Token智能密度’——即模型每处理一个数据单元能产生多少可复用的认知价值。”
4. 前景展望:超人学习者能否引领AI范式革命?
尽管挑战重重,Thinking Machines Lab已凭借“超人学习者”理念获得20亿美元种子轮融资,估值达120亿美元,成为AI领域最受瞩目的新星。这一现象暗示,行业对“规模至上”的迷信正在松动。正如Rafailov在演讲结尾所言:“人类的智慧不在于大脑神经元数量,而在于神经元连接的动态可塑性。AI的进化,或许也将遵循同样的逻辑。”
未来,超级智能的诞生可能并非单一路线的胜利,而是规模扩展与学习能力的融合——但在此之前,Thinking Machines的探索至少为行业提供了一个关键提醒:真正的智能,始于“学会学习”。
评论