AlphaEvolve交出一周年炸裂成绩单!AI自我改进不再科幻
【导读】AlphaEvolve一周年成绩单炸裂——改芯片、解数学、优化电网,Jeff Dean说「TPU大脑正在设计下一代TPU身体」——「AI造AI」不再是科幻设定,而是正在合拢的工程闭环。
AlphaEvolve转眼已经发布一年。
就在刚刚,谷歌低调地放出了一份炸裂的年度成绩单。
好家伙,AlphaEvolve这一年间居然干了这么多事——
帮陶哲轩解数学难题,给量子芯片重新画电路,优化电网调度,加速药物筛选,甚至直接改了下一代TPU的硅片设计。

这些都在说明:AlphaEvolve已经不是实验室里的玩具了。

这个由Gemini驱动的进化式编程智能体,用一年时间从论文里的概念验证,变成了谷歌核心基础设施的一部分。
正如有网友评论到的:这种递归自我改进真是太疯狂了!

和人类最顶尖的大脑
并肩作战
先从最让人瞪大眼睛的部分说起。
在基因组学领域,AlphaEvolve优化了谷歌的DeepConsensus模型,直接把DNA测序的变异检测错误率砍掉了30%。
PacBio的高级总监Aaron Wenger评价说,这意味着研究人员有可能发现此前隐藏的致病突变——也就是说,AI优化的算法,可能会帮人类找到新的救命线索。

在量子计算领域,AlphaEvolve给谷歌的Willow量子处理器设计了新的量子电路方案,错误率比传统优化方法低了整整10倍。
注意,不是10%,是10倍。这直接让一批此前跑不了的分子模拟实验变成了现实。

但真正让圈内人坐不住的,是数学。
AlphaEvolve和陶哲轩(Terence Tao)合作,攻克了Erdős提出的经典数学难题。

陶哲轩是谁不用多说——菲尔兹奖得主、UCLA数学教授、被公认为当世最聪明的数学家之一。
他的评价是这样的:AlphaEvolve这类工具正在给数学家提供「非常有用的新能力」,尤其是在优化问题上,它可以快速测试潜在的不等式是否存在反例、验证极值猜想,「极大地改善了我们对问题的直觉,也让我们更容易找到严格证明」。


一个AI系统,让一位数学史上排名前十的头脑由衷地说出「非常有用」——这本身就是一个历史性的信号。
除此之外,AlphaEvolve还刷新了旅行商问题(TSP)的已知最优解,改进了Ramsey数的下界纪录。
这些都是组合数学里的经典老难题,几代数学家啃了几十年,而一个AI编程智能体,用进化搜索的方式,找到了人类直觉从未抵达过的解。
工程战线:AI开始优化自己的「身体」
如果说科研突破还可以归为「聪明的工具」,AlphaEvolve在谷歌内部基础设施上干的事情,就已经不是「工具」两个字能概括的了。
最炸裂的一条:AlphaEvolve提出了一种「反直觉」的电路设计方案。
这个方案反直觉到什么程度?
谷歌的芯片工程师第一反应大概率是「这不对」——但跑完测试发现,它不仅对,而且比人类设计的更高效。
于是谷歌做了一个决定:把这个AI设计的电路直接集成进了下一代TPU的硅片里。
Jeff Dean,谷歌首席科学家,亲自背书了这件事。

他的原话是:「AlphaEvolve从我们AI技术栈最底层的硬件开始优化。它提出的电路设计如此反直觉却又如此高效,以至于被直接集成进了下一代TPU的硅片。这是TPU大脑帮助设计下一代TPU身体的最新案例。」

注意这句话的分量:TPU是训练Gemini的硬件,Gemini是驱动AlphaEvolve的大脑,而AlphaEvolve现在在设计下一代TPU。
商业战线:从实验室走进真金白银
通过Google Cloud,AlphaEvolve已经在多个行业落地。
金融科技公司Klarna用它优化了最大的transformer模型,训练速度直接翻倍,同时模型质量还提升了。物流公司FM Logistic用它优化旅行商问题的路线规划,效率提升10.4%,每年少跑15000公里。计算化学公司Schrödinger用它加速分子力场的训练和推理,速度提升约4倍——药物研发的筛选周期从几个月压缩到几天。

一年前AlphaEvolve发布时,圈内最大的疑问是:这到底是一个惊艳的demo,还是一个真正能用的系统?
一年后的成绩单回答了这个问题:它不仅能用,而且已经深入到了谷歌最核心的基础设施里,从芯片硅片到数据库内核,从量子计算到商业客户的生产环境。
但AlphaEvolve最关键的战绩,其实不在上面任何一条。
让我们把Jeff Dean那句话再读一遍:「TPU大脑正在设计下一代TPU身体。」
翻译成更直白的语言就是:训练AI的芯片,正在被AI自己重新设计。
新芯片造出来之后,会训练出更强的AI,更强的AI会设计出更好的芯片——这是一个闭环。
AI造AI:递归自我改进
就在AlphaEvolve交出成绩单的同一天,IEEE Spectrum——全球工程技术领域最权威的媒体之一——刊发了一篇长文:Recursive Self-Improvement Edges Closer InAILabs(递归自我改进正在AI实验室中逼近现实)。

递归自我改进(RSI)这个词,过去十年基本只出现在两个场景:AI安全研究者的警告报告里,和科幻小说里。
IEEE Spectrum用一整篇特稿把它从这两个场景拽了出来,放到了工程现实的桌面上。
而让这篇报道真正炸开的,是Anthropic联合创始人Jack Clark同期给出的预测:到2028年底,有60%以上的概率,出现一个AI系统可以完全自主地训练出自己的下一代。

他在自己的newsletter Import AI 第455期中写道,他花了数周时间阅读了数百份公开数据源,最终得出这个结论。

他承认自己「不确定社会是否准备好了」。
这不是一个推特上的随口一说。Clark是Anthropic的联合创始人,也是AI安全和政策领域最有影响力的公共知识分子之一。
当这样一个人松口承认「早期信号已经出现」的时候,本身就是信号。
如今,三条线索已经摆在桌面上。
Anthropic承认Claude Code写下了公司大部分代码,Dario Amodei公开说工程师效率提升了20%-40%。
换句话说,造Claude的代码,很大一部分是Claude自己写的。
谷歌这边,AlphaEvolve在设计训练自己的芯片。
再看学术界,2026年3月发表在Nature上的AI Scientist系统,已经能自主跑完「提想法—做实验—写论文—同行评审」的全流程。

当AI可以参与改进下一代AI时,一家公司的护城河就不再是模型参数量、数据规模或者算力储备——而是自演化的速度。
当然,IEEE Spectrum的报道也呈现了另一面的声音。
Allen Institute for AI的Nathan Lambert提出了「有损自我改进」(Lossy Self-Improvement)的概念——随着AI系统变得越来越复杂,自我改进的飞轮可能因为摩擦增大而减速,而不是无限加速。
Meta的研究者Jason Weston和Jakob Foerster则主张,比起纯粹的自我改进,「人机共同改进」才是更现实、也更安全的路线。


不过话说回来,当AI在反向设计自己跑着的芯片,陶哲轩这种级别的数学家已经把它当研究搭档,Claude写了Anthropic大部分代码时——
你说AI自我提升这扇门有没有被推开?
其实早就推开了。
现在,唯一值得关心的问题只剩下ASI多久能够到来。
参考资料:
https://deepmind.google/blog/alphaevolve-impact/
https://spectrum.ieee.org/recursive-self-improvement
https://www.anthropic.com/product/claude-code
https://arxiv.org/abs/2506.13131
https://www.nature.com/articles/s41586-026-10265-5
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里查看更多信息!
AI 中文社