马斯克Grok 4深夜大升级:200万逆天上下文、五倍GPT-5「脑容量」!
【导读】Grok家族一夜两大升级:Grok 4 Fast拉到2M上下文、Grok Imagine生成逼真到真假难辨。
太快了!
一天之内Grok连迎两大更新——Grok 4 Fast与Grok Imagine都进行了大升级。
Grok 4 Fast把上下文窗口提高到2M,并把完成率拉到94.1%(推理)与97.9%(非推理)。
这意味着,你不必再把一本书或一整个代码库切碎喂给模型,它可以一次吞下,然后稳定地给出结果。
与此形成共振的是,x.ai在OpenRouter上的API调用份额也在走高,这说明Grok模型的质量也受到了开发者的青睐。
Grok Imagine的升级则主要体现在生成质量上——其输出已经到了真假难辨的程度!
2M上下文
一次装下两本《战争与和平》
首先看Grok 4 Fast,它的最大升级在于具备了200万token的上下文能力。

这意味着它可以一次性处理相当于150万个英文单词或6000页的文本量。

这规模太惊人了!
相当于Gemini 2.5 Pro的2倍、GPT-5的5倍!

毫不夸张地说,200万token的上下文窗口彻底改变了游戏规则——
整本书、完整的代码库或者是海量的数据集,都能够一次性处理。
要知道列夫·托尔斯泰的大部头《战争与和平》也仅有大约80万个token——Grok 4 Fast可以轻松一次装下两部还有富余!

再加上Grok 4 Fast近乎零内存泄漏的急速性能,使得模型能够进行大规模的思考而不失焦。
这将会重新定义「实时AI推理」的样貌。
推理质量同步提升
上下文数量增长的同时,Grok 4 Fast的推理质量也有着明显的进步。
具体来说,Grok 4 Fast在推理模式下,完成率从77.5%跃升至94.1%。
非推理模式下,完成率从77.9%跃升至97.9%。

这意味着模型成功输出符合要求结果的概率大幅提升,失败率(比如中途断开、输出逻辑断裂、无法完成任务等)显著降低。
可以说,Grok变得聪明多了。
对此,有网友评论道,Grok要是照这样增长下去,「它可能成为首个真正实现速度与推理能力协同优化而非相互制约的模型」。

这一点也体现在了OpenRouter API调用量的市场份额变化上。
根据最新的数据,x.ai的API调用量已经达到了26.4%,远远超过了谷歌以及Anthropic。
可以说,占据了绝对的统治地位。

Grok Imagine:逼真到真假难辨
与Grok 4 Fast一同升级的还有Grok Imagine。
升级后的Grok Imagine输出非常逼真,几乎达到了真假难辨的程度。

马斯克自己也是在x上玩的飞起。

提示词:add a boyfriend and they transition into muppets

有网友还玩起了西方古典文学与神话中的经典情节——埃涅阿斯逃离特洛伊。
这个故事源自古罗马诗人维吉尔的史诗《埃涅阿斯记》,也呼应了古希腊神话中特洛伊战争的后续脉络。

还有不同角度的——

大家脑洞大开,甚至生成了苏格拉底饮下毒芹的悲情时刻。

有想法的同学快去试试吧。
参考资料:
https://x.com/BrianRoemmele/status/1987222897174380719?s=20
https://x.com/cb_doge/status/1987088612115067291?s=20 https://x.com/brianroemmele/status/1986949680278937736
https://x.com/elonmusk
https://x.com/tetsuoai/status/1987128602211864980
https://x.com/BrianRoemmele/status/1987222897174380719?s=20
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社