OpenAI史上最快模型降临,每秒1000Token!代码从此「炸出来」

2026-02-13 发布 · 浏览14次 · 点赞0次 · 收藏0次

【导读】OpenAI深夜突袭,GPT-5.3-Codex-Spark正式炸场。核心卖点只有一个:快!每秒1000个token,让代码生成告别加载条。联手Cerebras怪兽级硬件,物理外挂直接拉满。这不再是简单的工具升级。而是一场关于速度的暴力美学。

OpenAI又深夜炸场了。

GPT-5.3-Codex-Spark正式发布!

这次不讲大道理,只讲一个字:


到底有多快,看一下官方的演示:



它是GPT-5.3家族里的「闪电侠」。

也是OpenAI首个专为实时编程设计的模型,OpenAI称之为「超高速模型」


大家写代码最烦什么?肯定是等待。

Spark的出现就是为了干掉等待。

它的生成速度超过每秒1000个token!

这是什么概念?

你刚敲完回车,代码已经写完了。

体感接近「瞬时响应」。


这次OpenAI找了个强力外援。

芯片巨头Cerebras。


Spark跑在Cerebras的Wafer Scale Engine 3上。


这不是普通的GPU堆叠。

这是专为低延迟设计的顶级硬件。

为了配合这股怪力,OpenAI还重写了底座。

他们引入了持久的WebSocket连接。

往返开销降低了80%。

首个字符出现的速度提升了50%。

模型虽然变「小」了,但脑子并没缩水。


在衡量程序员能力的各种榜单上。

Spark的表现依然强悍。

最关键的是,它完成任务的时间缩短了一大截。

在评估智能体软件工程能力的SWE-Bench Pro和Terminal-Bench 2.0两项基准测试中,GPT‑5.3‑Codex‑Spark展现出强劲性能,同时完成任务所需时间仅为GPT‑5.3‑Codex的一小部分。


以前模型写代码像在慢跑。

现在Spark是在跑百米冲刺。

它的应用场景很明确:实时协作。


你想改个逻辑,它立刻跟上。

你想重塑接口,它秒速完成。

你甚至可以一边看它写,一边随时打断它。

这种感觉不像是在用工具。

更像是在和一个手速极快的顶级极客结对编程。

配置方面也很有诚意。

128k的上下文窗口,目前仅支持文本。

安全标准也没落下,防御力依然在线。


现在ChatGPT Pro用户已经可以去尝鲜了。

无论是Codex App、CLI还是VS Code插件。

都能看到这个「火花」在跳动。

OpenAI的野心很明显。

未来的编程将分为两种模式。

一种是深度思考,模型自己干几天几夜。

一种是实时互动,模型和你火花四溅。


Spark就是开启第二种模式的钥匙。

人类敲代码的速度。

终于快要赶不上AI生成的进度了。

你想试试这个每秒千字的AI代码打印机吗?

参考资料:

https://x.com/OpenAI/status/2022009582210715925

https://x.com/sama/status/2022011797524582726

OpenAI史上最快模型降临,每秒1000Token!代码从此「炸出来」 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。