英伟达 4B 小模型击败 GPT-5 Pro!单任务成本仅后者 1/36
英伟达小模型持续获胜。
ARC-AGI 2 最新成绩,4B 小模型 NVARC 以 27.64% 的公开榜成绩力压 GPT-5 Pro 18.3% 登顶榜首。
且每任务成本仅 20 美分,大约是 GPT-5 Pro 单任务成本(超过 7 美元)的 1/36。

据官方分析,此次 NVARC 夺冠的亮点在于零预训练深度学习方法,没有依赖大规模通用数据集进行前期预训练,规避了预训练模型的领域偏见、数据依赖等问题。
而 ARC-AGI 2 确实是一个消除了与公共训练数据重叠的更高难度测试,主要是看测试模型能否高效地获取超出其训练数据的新技能。

成绩出炉后,官方访谈到了 NVARC 团队的 Jean-Francois Puget 和 Ivan Sorokin,进行技术剖析。

快来看看“性价比之王”是如何“练”成的?
不靠参数堆料
英伟达的策略是将复杂推理移至离线的合成数据管道,训练能在评估时快速运行的较小模型。
简单来说就是大规模合成高质量数据,然后对现有模型进行优化,并且将昂贵的计算工作转移到离线进行。

由于 Kaggle 比赛对计算资源限制非常严格,团队意识到,他们不能直接使用那些需要超强算力的大型 LMM 来进行复杂的、一步一步的推理和代码生成。
因此他们改变了思路,决定将最烧钱的计算工作转移到离线完成。比如利用 GPT-OSS-120B 来大规模制作高质量的合成谜题。
团队从 H-ARC、BARC 数据集中搜集了现有的 ARC 谜题数据,然后将简单的谜题混合起来,生成更复杂的新谜题。

为了确保数据质量,他们将复杂的推理管线拆分成不同的阶段,每个阶段都可以独立验证。
通过这种方式,他们建立了一个含 320 万 + 增强样本的合成数据集,其中每个样本最多有 7 对输入 / 输出。

这里忍不住提一嘴,哈萨比斯刚强调了 Scaling Law 的重要性,那么合成数据的 Scaling 怎么不算呢(doge)?
言归正传,NVARC 核心的推理模块以改进版 ARChitects 方法为基础,选用小参数模型 Qwen3-4B,通过对话式模板简化谜题理解。

训练时借助 NeMo RL 框架和 Megatron 后端进行监督微调。
不过,让模型取得优异成绩的关键一步在于测试时微调(TTFT)。
针对 ARC-AGI-2“每个任务都是全新规则”的特点,NVARC 引入了 LoRA 微调技术,并且是针对每一个问题都进行微调,让模型在做题前快速适应。
而对 ARChitects 方法的改进在于解码阶段 DFS 算法做了批处理优化,修复结果非确定性问题。
同时统一了 8 种数据增强操作评估候选解,最终在公开榜获得了 27.64% 的分数。

在竞赛后期,团队还应用了“少即是多”的 TRM 方法,尝试与 Qwen3-4B 集成补充分数,虽然有一定提升,但受各种限制并没有大幅优化。
那么问题来了,有人会说这样训练出来的小模型不就是做题机器吗?哪里比得上全面发力的超级大模型?
但更值得关注的或许不在于模型本身,而在于实现突破的方法。
在特定领域任务中,小模型经过针对性优化,性能并不逊色,再加之成本、速度、适配性与领域聚焦优势,它们已经在诸多场景崭露头角。
将正确的方法用在正确的地方,将会实现更大的价值。

借用这位网友所说,模型或许应该被设计得更加“敏捷”。
论文地址:
https://drive.google.com/file/d/1vkEluaaJTzaZiJL69TkZovJUkPSDH5Xc/view
参考链接:
[1]https://developer.nvidia.com/blog/nvidia-kaggle-grandmasters-win-artificial-general-intelligence-competition/
[2]https://arcprize.org/blog/arc-prize-2025-results-analysis
[3]https://www.kaggle.com/competitions/arc-prize-2025/writeups/nvarc
本文来自微信公众号:量子位(ID:QbitAI),作者:闻乐
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社