前OpenAI灵魂人物Jason Wei最新演讲!三大思路揭示2025年AI终极走向

2025-11-02 发布 · 浏览31次 · 点赞0次 · 收藏0次

【导读】在AI加持下的这一年人类突飞猛进,停下来回头看去,似乎AI已经无所不能,但前OpenAI灵魂研究员认为AI不可能瞬间超越人类,他还提出了三个关于AI的最新洞见。

用三句话总结下2025年AI的发展,你会想到什么?

  • 所有能被验证的任务,最终都会被AI解决

  • 智能最后会变成商品知识价格归零

  • AI不会瞬间超过人类

最近,前OpenAI核心研究员、CoT(思维链)作者Jason Wei在斯坦福大学AI Club做了一场精彩的演讲。


这是他跳槽到Meta后少有的公开分享。

我们的世界,在AI大行其道的这一年,到底发生了什么?

AI继续发展下去是什么样子的?


量化交易员说AI很酷,但并不能做我的工作;

顶级实验室AI研究院:2-3年后,AI就要取代我的工作了。

那么,谁对谁错?

智能的商品化

Jason Wei的原话是Intelligence as a Commodity

AI的智能发展可以分为两个阶段:

第一阶段:前沿突破,当AI还无法很好地完成某任务时,研究的重点是「解锁新能力」。

第二阶段:能力商品化,一旦AI能完成该任务,该能力就会被快速复制、成本趋近于零。

例如在MMLU(多任务语言理解基准)上,过去几年模型性能稳步提升,而达到特定分数的成本却逐年下降


「自适应算力」的出现

AI的出现,也是首次深度学习真正实现自适应计算AdaptiveCompute)

过去无论任务简单还是困难,模型都消耗相同的算力


现在可以根据任务难度动态调整推理算力

例如在o1模型中,推理时投入更多计算,就能在数学题上获得更高准确率。

这意味着:智能的成本可以持续下降,而无需无限扩大模型规模。

同时,信息获取越来越容易。 AI正在让「公开知识」的获取时间趋近于零。


Jason以「查找1983年釜山结婚人数」为例:

  • 互联网时代前:去图书馆查百科,数小时

  • 互联网时代:搜索网站、筛选资料,数分钟

  • 聊天机器人时代:直接问AI ,即时

  • 智能体(Agent)时代:自动查找并整合数据库,数秒到数分钟

总结一下,Jason Wei认为智能作为一种「商品」,将越来越便宜

  • 知识民主化:编程、生物黑客等曾需高门槛知识的领域被大众化。

  • 私有信息的相对升值:公开信息成本趋零,内幕或独家信息的价值反而更高。

  • 个性化互联网:未来每个人可能拥有一套完全定制的知识入口。


验证者法则

什么是验证者法则?

所有能被验证的任务,最终都会被AI解决

所以现在会出现各种各样的评测基准。

只要能建立「能够被验证的任务」,AI都会攻破这个领域。

很明显的一点是,越容易生成的任务,越难被验证。

这就是验证的非对称性

比如数独和造一个网站,都属于中等难度和高难度的任务。

但是要验证一个数独题目的正确性,和验证一个网站是否开发的不错,很简单!

许多任务存在「生成难,验证易」的不对称:


  • 解数独:难求解,易验证。

  • 写出网站的全部代码:极难生成,但验证只需点击浏览。

  • 写事实性文章:容易生成「似是而非」的文本,但事实核查极其耗时。

  • 提出饮食法:容易断言「只吃野牛最好」,但验证需长期实验。

我们可将任务放在二维平面上:X轴,生成难度;Y轴,验证难度。


某些任务可以通过提供额外信息使其更易验证:

例如提供答案或测试集,使「生成→验证」更高效。

AI能否学会一项任务,与该任务的可验证性成正比

即:任何可验证、可量化的任务,AI终将掌握。

比如下面这种图,在过去5年中,大部分AI基准评测都非常容易被「验证」。


Jason Wei给出了可验证性的五个因素:

  • 是否存在客观真值;

  • 验证速度是否快;

  • 能否批量验证大量样本;

  • 结果是否低噪声、稳定;

  • 是否有连续反馈(不仅是「对/错」,还有质量梯度)。

几乎所有AI基准(benchmarks)都具备这些特征,因此被迅速攻克。

Jason Wei重点描述一个案例:DeepMind的AlphaEvolve


该系统通过大规模采样与自我验证,解决了大量「易验证难求解」的任务。


核心流程是:

  • 用语言模型生成候选答案;

  • 自动打分(验证);

  • 取最优样本再输入模型,形成迭代;

  • 反复迭代后性能显著提升。


这种策略绕过了「训练集-测试集」的泛化问题,只针对「单个任务」持续优化。

总结一下:

  • 可轻易验证的任务将率先被AI自动化。

  • 新的创业机会:AI创造「可测量的目标」

  • 即——只要你能定义一个明确的度量指标,AI就能为你优化它。


智能的锯齿边缘

这个关键点英文叫做The Jagged Edge of Intelligence,智能的锯齿边缘。

直接翻译有点抽象,但是如果看下图就很好理解了。

简单来说,就是AI的智能并不是「全知全能」,AI的智能水平就像锯齿一样,有高有低。


AI为什么不会「瞬间超越人类」

Jason认为不会出现「AI快速爆炸式超越人类」的「Fast Take off」。

AI的自我改进能力将是渐进的、分任务发展的

不同任务的学习速度和上限各不相同,不会「一夜超神」。

每个任务的改进速率不同:

  • 一些任务进步快(如可验证的数学、编程)。

  • 一些任务改进慢(如需要真实世界交互或罕见数据的语言)。

AI的发展呈「锯齿形」曲线:某些领域突飞猛进,某些长期停滞。

那么AI在哪些任务上发展快,哪些发展的慢?

判断任务进展速度的三条启发式法则:

  • 数字化任务发展快:迭代速度高、实验成本低;例如软件开发远快于机器人制造。

  • 对人类简单的任务,对AI也简单:但AI也能在某些「人类极难但有明确目标」的领域超越人类,如癌症影像预测。

  • 数据越多,AI越强:语言模型在高频语言上性能显著优于低资源语言,若任务能提供单一客观指标,还可用强化学习生成合成数据。

比如AI代码,现在基本已经被AI攻克,竞赛数学也被攻克了。

但是如果数据量很小,无法数字化的领域,AI就很难攻克。


总结一下:

  • 不存在统一的「AI超级智能爆发」;

  • 各任务将以不同速率演进;

  • 影响最大的领域是:数字化、人类已擅长、数据丰富的领域

Jason Wei在演讲最后总结道:

智能与知识将变得快速且廉价,公共知识的获取时间趋零。

而「验证者法则」则预示着可度量性推动AI进步,任何可验证的任务都会被AI征服。

智能的边界是锯齿状的。各任务发展速率不同,不会出现瞬间的超智能崛起。

未来的信息将无摩擦地流动,而AI的边界,将由我们能定义和验证的事物所决定。

演讲嘉宾介绍


Jason Wei,目前是Meta Superintelligence Labs的研究科学家。

他曾在OpenAI工作两年,参与创建了o1模型DeepResearch项目;

在那之前,他是Google Brain的研究员,推动了Chain-of-Thought推理InstructionTuning(指令微调)等技术的发展。

他的论文被引用超过9万次,是现代AI领域最具影响力的研究者之一。

参考资料:

https://www.youtube.com/watch?v=b6Doq2fz81U

前OpenAI灵魂人物Jason Wei最新演讲!三大思路揭示2025年AI终极走向 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。