DeepMind内部视角揭秘!Scaling Law没死,算力即一切

2025-12-31 发布 · 浏览15次 · 点赞0次 · 收藏0次

【导读】2025年就要结束,DeepMind华人研究员万字长文为我们揭秘了谷歌内部对于AI的预言:除了算力,其他一切都是杂音。

今天是2025年的最后一天了,很多人都在这一天进行AI回顾总结。

在经历一年的模型、算力、资本的新闻轰炸后,AI距离通用人工智能还有多远?

如果说2024年是人们对于AI的好奇之年,那么2025年就是AI深刻影响人类社会之年。

在这充满变数的一年里,我们听到了截然不同的声音:

Sam Altman在2025年中的博文《温和的奇点》中大胆预言:

「我们已经知道如何构建AGI,2026年我们将看到能够产生原创见解的系统。」他坚持认为,Scaling Law远未触及天花板,智能的成本将随着电力的自动化生产而趋近于零。

拓展阅读:奥特曼:温和奇点已降临!AI最终掌控物理世界,2030年人类命运大转折


NVIDIA的黄仁勋则将目光从「算力崇拜」转向了「AI工厂」。

他在2025年底的一次演讲中提到:

「AI的瓶颈不再是想象力,而是电力。未来的Scaling Law不仅是模型的堆叠,更是推理效率10万倍的飞跃。」

拓展阅读:英伟达AI工厂:人类历史酝酿12000年的绝对必然


相比之下,Meta的前首席科学家Yann LeCun依然嘴炮,他甚至在离职创办新公司前公开表示:

「LLM是通往 AGI 的死胡同,它没有世界模型,就像一个没有躯体的空中楼阁。」

拓展阅读:LeCun赌上后半生,押注大模型必死!Hassabis誓将Scaling进行到底


2026年,Scaling Law是否还能继续玩下去?

对于这个问题,一篇来自DeepMind华人研究员的万字长文在社交网络火了:

Scaling Law没死!算力依然就是正义,AGI才刚刚上路。


文章地址:https://zhengdongwang.com/2025/12/30/2025-letter.html

本文是Google DeepMind研究员Zhengdong Wang撰写的2025年度长信。

作者以独特的个人视角,回顾了从2015年至今AI领域的剧变,并深刻剖析了驱动这一切的核心动力——算力

尽管外界对Scaling Laws存疑,但历史反复证明,随着算力的指数级增长,AI模型不断涌现出超越人类预期的能力。

作者结合自己在DeepMind的工作经历,验证了强化学习教父Richard S. Sutton「苦涩的教训」:

通用算力方法终将战胜人类的特定技巧。


这也是我们今年最大的感受!

除了算力,其他都是杂音

2025年12月30日,当回望这波澜壮阔的一年时,脑海中浮现的是十五年前那场由AlexNet开启的视觉革命。

那场辛顿、李飞飞、Ilya都参与的大会,或许就是如今AI时代的真正萌芽。


那时,大多数人认为人工智能仅仅是关于「特征工程」和「人类聪明才智」的博弈,而今天,我们已经进入了一个完全不同的维度:

一个由算力主导、由Scaling Law驱动、且AGI(通用人工智能)才刚刚踏上征途的纪元。

最近大家关注的焦点无外乎:Scaling Law是否已经撞墙?

算力的信仰:为什么Scaling Law从未失效

在2024年底,业内曾出现过一阵强烈的悲鸣,认为预训练数据的枯竭和边际收益的递减标志着Scaling Law的终结。

然而,站在2025年的终点,我们可以负责任地说:

Scaling Law不仅没死,它正在经历一场从「暴力堆参数」到「智能密度」的深刻演化。

十五年一遇的连续性

我们要理解Scaling Law,首先要看到它的历史韧性。

研究显示,过去十五年里,用于训练AI模型的算力每年以四到五倍的速度增长。

这种指数级的复合增长,在人类技术史上是罕见的。

在DeepMind内部观察到,模型在训练过程中所消耗的数学运算量,已经超过了可观测宇宙中的恒星数量。

这种增长并非盲目,而是建立在极其稳定的经验公式之上。

根据Kaplan和Hoffmann等人的实证研究,性能与算力之间存在着明确的幂律关系:性能提升与算力的0.35次方成正比。


文章地址:https://fourweekmba.com/ai-compute-scaling-the-50000x-explosion-2020-2025/

这意味着,每投入10倍的算力,大约能带来3倍的性能增益;而当我们跨越1000倍的算力鸿沟时,性能的提升将达到惊人的10倍量级。

定性跃迁与涌现能力

Scaling Law最迷人的一点在于,它不仅带来了定量的误差减少,更诱发了不可预测的定性跃迁。

在DeepMind的实验中,随着算力的增加,模型会突然展现出逻辑推理、复杂指令遵循以及事实性修正等「涌现能力」。

这种现象意味着,算力不仅仅是燃料,它本身就是一种能够催生智能的物理量。

2025年的真相是:我们已经从单纯的「预训练Scaling」转向了「全四个维度Scaling」:


  1. 预训练Scaling

    通过海量多模态数据构建基础认知。

  2. 后训练Scaling

    利用强化学习(RL)进行对齐和偏好优化。

  3. 推理时Scaling

    即让模型在回答前「想得更久」。

  4. 上下文Scaling

    通过超长记忆提升端到端任务能力。

在DeepMind亲历的「1000倍算力」瞬间

如果说Scaling Law是宏观的哲学,那么2021年Zhengdong Wang在DeepMind经历的那次实验,就是微观的启示录。

那次经历彻底重塑了Zhengdong Wang的「智能观」,也让Zhengdong Wang理解了为什么说「算力即正义」。

算法聪明才智的贬值

当时,DeepMind团队正在尝试解决具身智能(Embodied AI)在3D虚拟环境中的导航与交互问题。

那是典型的「硬核AI」挑战,涉及到复杂的强化学习算法优化。

当时的共识是:这个问题的瓶颈在于算法的精妙程度,在于我们如何设计更优的采样策略和奖励函数。

然而,一位同事提出了一个近乎「鲁莽」的方案:不要改算法,直接把算力投入增加一千倍。

在那次算力狂飙之后,奇迹发生了!

那些原本被认为需要突破性人类巧思才能解决的逻辑死角,在海量的矩阵乘法面前直接「融化」了。

算法并没有变聪明,但规模赋予了它一种类似于生物本能的鲁棒性。

算力之波的冲击

那一刻,Zhengdong Wang深刻体会到了理查德·萨顿(Richard Sutton)在《苦涩的教训》中所表达的真理:

人类在AI领域的所谓「巧思」,在算力的指数增长面前往往不值一提。

这种realization就像是一股巨大的「算力之波」从你身上碾过,让你意识到,与其苦思冥想如何优化那1%的算法效率,不如直接去拥抱那1000倍的算力扩张。

这种视角在2025年的今天已经成为了DeepMind内部的通用语:

我们不再问「这个问题能不能解」,而是问「这个问题需要多少算力才能解」。

正是这种心态,让我们敢于在数据中心投资上砸下远超阿波罗计划的重金。

基础设施的极限与挑战:1GW时代的到来

Zhengdong Wang还提供了额外的视角。

当DeepMind在内部讨论算力时,话题已经从「PFLOPS」转向了「GW」。


2025年,AI不再仅仅是代码,它是重工业,是土地、能源和定制硅基芯片的终极整合。

硬件的代际跨越:Blackwell与Ultra

这种终极整合,用一个词概括就是「AI工厂」,正是黄仁勋在GTC大会所提出的概念。


Wang认为,NVIDIA在2025年交付的Blackwell平台,是DeepMind能够维持Scaling Law信仰的物理基础。

GB200 NVL72系统将72颗GPU互联为一个单一的超级计算引擎,其万亿参数模型的推理速度比H100提升了30倍。


BlackwellUltra的推出更是将单芯片显存推向了288GB的极限,这意味着即使是300B以上的模型,也可以在不需要显存卸载的情况下完整驻留,这对于长上下文和高并发推理至关重要。

电力与散热的硬墙

然而,物理定律依然严苛。

单芯片功耗逼近1000W,让DeepMind不得不全面转向液冷方案。

2025年,开始谈论「AI工厂」而非「数据中心」。

谷歌的基础设施首席执行官Amin Vahdat在内部会议中明确指出,为了满足爆发式的算力需求,我们必须每六个月将算力能力翻倍,并在未来4-5年内实现1000倍的增长。


这种压力不仅体现在金钱上。

2025年上半年,AI数据中心投资占据了美国GDP增长的90%以上。

尽管外界担心泡沫,但DeepMind内部的视角是:

如果你能看到1000倍算力带来的智能红利,那么任何低于这个数字的投入都是一种风险。

具身智能的突破:SIMA 2与通用Agent的诞生

在DeepMind,始终认为AGI的终极形态不在对话框里,而在物理世界中。

2025年,SIMA 2项目展示了从「理解」到「行动」的跨越。


像素级交互与开放式学习

SIMA 2是一个通用的具身智能体,它不依赖于游戏内部的数据接口,而是像人类一样,通过观察像素和操作键盘鼠标在复杂的3D虚拟世界中行动。

这种设计确保了它所习得的技能——从基础的导航到复杂的工具使用——具有极强的泛化性,可以无缝迁移到完全不同的数字环境,甚至为未来的物理机器人提供大脑。

更重要的是,SIMA 2展示了「自我进化」的能力。

通过与Gemini基础模型的结合,它可以自主生成任务、自我设定奖励,并在没有任何人类标注的情况下,通过不断的尝试和错误习得新技能。

扩展阅读:我的王者荣耀有救了!谷歌发布游戏SIMA 2,不开外挂「像人一样」练级


METR时间跨度图:智能的量化加速

在评估进展时,作者最推崇的是METR的时间跨度图。


两年前,AI只能稳定完成人类耗时9分钟的任务;而到了2025年底,这个数字已经跃升到了4小时以上。

按照目前的Scaling趋势,到2028年,AI有望独立完成人类专家需要数周才能完成的科研或工程任务。

AGI才刚刚上路,正处于爆发的前夜

在结尾,Zhengdong Wang写道:「这就是我上车的地方——我们现在还极其早。」。

尽管2025年我们已经看到了能过IMO的金牌模型,看到了能自主在3D世界中生存的Agent,但在DeepMind的「Post-AGI」团队看来,这仅仅是序幕。

我们依然受困于1GW的电力瓶颈,受困于数据采集的效率,受困于推理成本的最后几美分。

AGI不是终点,而是起点!

DeepMind之所以成立Post-AGI团队,是因为预见到:

当AGI的门槛被跨过那一刻,人类社会真正需要面对的挑战才刚刚开始:


  • 如何管理那些能够自主进化、且由于算力规模而产生「不可解释性」的智能体?

  • 在一个智能成本趋近于零的世界里,人类的独特价值如何重构?

  • 当AI开始主导科学研发的循环,人类文明的知识边界将以何种速度扩张?



2025年的真相是,Scaling Law不仅是通往AGI的路径,它本身就是一种重塑物理世界的哲学。

那些还在争论泡沫的人,或许还没意识到,这股由1000倍算力卷起的风暴,已经将人类送往了一个再也回不去的纪元。

对于AI的拥趸,所有人正满怀敬畏地看着那列名为「智能」的火车加速驶向远方。

我们并非在等待奇迹,我们正在亲手塑造它。

AGI,才刚刚上路。

参考资料:

https://zhengdongwang.com/2025/12/30/2025-letter.html

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定极速推送!

DeepMind内部视角揭秘!Scaling Law没死,算力即一切 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。