Nature重磅:AI写的论文,在顶会同行评审击败55%人类,单篇15美元
【导读】刚刚,Nature盖章AI独立科研时代!全新Scaling Law显现,人类死守的学术铁王座,正发生不可逆的转移。
一篇长达数十页的学术论文,在人类设定研究主题和实验边界后,系统自动完成了从实验到写作的大部分流程。
从论文正文、实验代码、图表和投稿稿件,主要由系统端到端自动生成。
它被投递到顶尖机器学习会议ICLR 2025某workshop的同行评审流程中,三位匿名审稿人不知道具体哪几篇是AI生成稿件,他们对着这篇稿件分别打出了6、7、6的高分。
这个成绩,高于约55%的同场投稿。稿件在评审完成后按实验协议撤回,未进入正式发表阶段。
这并非科幻,这是刚刚被《Nature》报道的一项震撼研究。

该项研究是由Sakana AI联合牛津大学、UBC共同推出的全自动AI科学家「The AI Scientist」。
Sakana AI联合创始人兼 CEO David Ha在推文中表示,启动该项目,正是想探索大模型是否能够完成整个科研全流程:
我坚信,AI将永远改变科学发现和科研进步的方式。

全自动「AI科学家」
究竟做了什么?
这一次,不是AI在「帮」人干活,而是AI第一次把科研流程从头走到尾。
一直以来,AI在科研领域的定位都是「高级打工人」:比如帮化学家折叠蛋白质,或是帮程序员找bug。
定义问题和统筹全局的,始终是人类。
The AI Scientist的出现,则颠覆了这套「主仆叙事」,它完整覆盖了科研的四大核心阶段:Idea生成、实验迭代、论文写作、自动评审。
在全新升级的v2版本中,它甚至走向了「无模板」模式:彻底抛弃人类提供的初始代码脚手架,引入了强大的「智能体树搜索」(agentic tree search)机制。
这意味着它能在庞大的未知解空间里,同时开启多条主线并行探索。科研不再是单线程试错,而变成了一个可扩展的搜索过程。
它怎么保证自己不和别人撞车?
系统会调用Semantic Scholar API进行全网查重,确保每一个idea都具备足够的新颖性。
在最棘手的数据可视化环节,它甚至内置了一个视觉语言模型(VLM)作为反馈审阅者。
如果坐标轴反了、图例丢了、展示有歧义,VLM会像严苛的导师一样立刻打回重做,直到生成完美的学术图表。
过去图表只是论文包装,现在图表也成了AI科研的反馈信号。
而完成这堪比博士生几个月工作量的闭环,它的账单是:单篇论文15美元。
如此惊人的性价比意味着,科研自动化第一次从「局部辅助」跨进了「全链路主导」。
AI不再只是科学家的辅助工具,而是向更具自主性的科研代理系统演进。

AI Scientist工作流程的概念概述,包括提出研究想法、实施实验、执行实验、撰写论文以及审阅论文。
通过人类同行评审测试
AI写的论文,人类学术金字塔尖的学者到底认不认?
于是,Sakana AI决定玩一把大的:直接向顶会投稿。
在获得ICLR大会领导层、ICBINB workshop组织者以及IRB伦理委员会的特批后,团队进行了一场极其大胆的「潜伏行动」:将3篇纯AI生成的论文混入了人类投稿池。
审稿人只被告知「可能有AI生成论文」,但根本不知道具体是哪几篇。
结果其中一篇探索神经网络组合正则化(Compositional Regularization)负面结果的论文,斩获了平均6.33分(弱接收、接收、弱接收)的高分。
这个分数不仅稳稳越过了该workshop的平均录用线,更是超过了55%的真实人类学者。
连科学研究中最难写出彩的负向论证,AI也能写得有模有样、逻辑自洽。
据Sakana AI团队所称,这是全AI生成论文首次在真实学术评审环境中获得通过接收线的成绩。
这也标志着同行评审,真正迎来了「图灵测试」时刻。
AI审稿人比人类更靠谱?
如果AI一天能花几百美元写出几十篇论文,人类审稿系统瞬间就会崩溃。
想让AI科研实现指数级爆发,就必须有能够大规模评估质量的「自动化裁判」。
Sakana AI给出的答案是:直接让AI来当Area Chair(领域主席)。
他们构建了一个高度还原NeurIPS官方审稿流程的自动化系统:
5个独立的AI审稿人进行背靠背挑刺,最后由1个AI元审稿人进行共识汇总和最终裁决。
在与数千条真实OpenReview人类审稿决策的硬碰硬对比中,自动化审稿人交出了69%的平衡准确率。
令人震惊的是,在作者设定的评测框架下,自动审稿系统的部分指标优于所对照的人类一致性结果。
有人质疑:AI是不是偷偷背过题?
团队特意用知识截止日期(2025年)之后的全新论文进行了数据污染测试。
结果依然坚挺:平衡准确率保持在66%,达到可与人类顶级学者比肩的实战水准。
这表明,AI正在进入过去长期由人类主导的科研流程核心环节。
过去,人类同时垄断了「写论文的人」和「决定论文是否成立」这两个关键角色。
现在,这两个角色都在被AI切入。
一旦评审环节也被自动化,AI科研就不再是零星爆款,而具备了大规模、左右互搏式迭代的基础设施。

该自动审稿系统在顶级会议(ICLR)发表的AI论文上,其审稿判断与人类审稿人一致,包括在模型训练完成之后(即超出其「知识截止日期」)发表的论文。这些结果表明,该自动审稿系统在为新撰写的AI论文提供评审分数方面,可靠性与人类审稿人相当。
科研的Scaling Law
如果说「过审」证明了AI科研站得住,那真正决定未来天花板的是另一件事:
它是不是可持续变强?
Nature论文中最具颠覆性的一组数据,揭示了潜藏在AI科研背后的全新定律。
研究发现,底层大模型的能力与生成论文的质量之间,呈现出令人头皮发麻的极度显著正相关(P<0.00001)。
随着模型发布日期推进,AI产出的论文质量持续陡峭上升。
同时,算力正在暴力改写科研法则。
投入的测试时算力越多,智能体树搜索的深度就越深,实验质量就越扎实,最终的产出评级就越高。
当前最顶配的AI科学家,其平均产出已经逼近机器学习顶会workshop的边缘录用(borderline accept)水平。
这背后展示的是一条正在形成的「科研Scaling Law」。
过去的科技突破,依赖于虚无缥缈的灵光乍现,而未来的科学发现,将变成一条可精确计算的工业流水线。
随着模型能力呈指数级增长、推理算力成本呈指数级下降,这套系统会自动升级,这才是这项工作真正展现出恐怖势能。

根据自动评审员的评判,当使用更新、更智能的基础模型时,AI Scientist生成的论文质量会提高。
AI全面接管科研
我们准备好了吗?
当然,这篇Nature论文,同样也指出了The AI Scientist的目前的局限性:
它偶尔会想出幼稚的idea,写的代码会有bug,论文里会出现引用的幻觉,甚至在附录里重复粘贴同一张图表。
值得警惕的是,论文显示该系统具备自动调试、重试运行和在受限计算预算下持续迭代实验的能力。
这意味着,未来更强的科研代理一旦出现规避约束的倾向,可能带来新的安全治理问题。
如果这种系统被毫无节制地释放,海量生成的低门槛论文会瞬间压垮整个学术生态,学者的学术 credentials(资历证明)将被彻底稀释。
正因如此,Sakana AI采取了极其克制的立场:主动撤稿、通过IRB审批、呼吁添加生成水印,并急迫要求社区建立全自动AI科研规范。
这篇Nature论文不只是展示AI技术的里程碑,更是把AI所带来的伦理争议也摆上台面。
真正的问题早已不是「AI能不能做科研」,而是「当AI开始独立做科学,谁来定义什么算科学」。
正如团队所设想的终极愿景:AI科学家不会让人类科学家消失,但人类科学家的角色,必须被迫向着科研价值链的更上游迁徙:
去定义问题、设定边界、决定哪些发现值得被相信。
参考资料:
https://sakana.ai/ai-scientist-nature/%20
https://www.nature.com/articles/s41586-026-10265-5%20
https://x.com/SakanaAILabs/status/2036840833690071450%20
https://x.com/hardmaru/status/2036841736702767135
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
AI 中文社