硅谷500亿巨头翻车现场!Cursor被扒套壳Kimi,中国开源上大分
【导读】大瓜惊爆AI圈:昨天Cursor新模型刚刚封神,24小时内却被扒是套壳Kimi?全网秒变吃瓜现场,马斯克、龙虾之父都来围观了。这一次,中国开源模型,真的上大分了!
今天,整个AI圈都被这个大瓜震惊了。
3月19日凌晨,估值即将冲击500亿美元的AI编程独角兽Cursor,高调发布了自家最新编程模型Composer 2。
这个模型一发布,立刻在整个开发者社区引发了轰动!
据说,它不仅超越了Claude Opus 4.6,价格还直接腰斩,对于动辄被Claude天价模型烧穿钱包的开发者,这简直是重大利好啊。

最令业内侧目的,就是这张「性能/价格比」坐标轴了:Composer 2直接横扫了Opus 4.6和GPT-5.4
超越Opus 4.6,这个令人吃惊的成绩是怎么得到的?
根据Cursor官方博客的说法,他们采用了不少关键技术,比如继续预训练、大规模强化学习、自主研发的自我摘要技术。
总之,靠自主研发造出最前沿模型的Cursor,这波是上大分了!

结果,不到24小时,Cursor竟然就被啪啪打脸了??
一行模型ID
撕开500亿美元估值的遮羞布
一位名叫Fynn的开发者在调试Cursor的API时,截获了一段不该出现的模型ID:
accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast

注意看这段——「kimi-k2p5-rl」。
翻译过来就是,这个光环满满的Composer 2,底下跑的其实是Kimi K2.5的强化学习版本!

瞬间,这条推文迅速就引爆开发者社区,浏览量直接飙过22万。
看热闹不嫌事大的马斯克立马下场,在评论区留了一句话:「Yeah, it's Kimi 2.5」。


预训练负责人,在线打假
随后,Kimi的预训练负责人立即发推表示,我们测试了Composer 2的分词器,发现它跟Kimi的完全一致!
几乎可以确认,这就是我们的模型被进一步后训练的结果!
他直接@了Cursor的联创Michael Truell,询问对方为何没有遵守他们的MIT License许可条款,也没有支付任何费用?

后续已经删帖
要知道,这件事情的核心焦点就在于,根据Kimi K2.5的许可证要求,当衍生产品月收入超过2000万美元时,需在界面显著展示「Kimi K2.5」字样。
而Cursor的年收入超过20亿美元,月收入约1.66亿,是触发署名义务门槛(2000万美元)的8倍以上。
这一波,Cursor算是丢脸丢大发了。社区的各个大V,都下场围观、转发、热议起来。

连龙虾之父,都开始下场吃瓜了。

全网都在疯狂刷起梗图。




Cursor紧急回应
承认了,但只承认一半
面对铺天盖地的质疑,Cursor联合创始人Aman Sanger不得不下场发声。
他的回应分三层。
第一,承认基座:我们评估了大量基座模型的困惑度,Kimi K2.5表现最强。
第二,强调自研成分:在K2.5基础上做了继续预训练和4倍算力规模的高强度RL训练。
第三,道歉:没在博客里提到Kimi基座,确实是疏忽,下一个模型会改。

Cursor的另一位核心成员Lee Robinson则在几个小时内连发四条推文,姿态一条比一条低。
最初,他只承认是基于开源项目,并且甩出一组数据称,最终模型的算力消耗中,只有约1/4来自基座模型,剩下3/4全是Cursor自己的训练。
所以跑分结果和原版差异很大。
言下之意:我们不是简单套壳,开源模型只是基础。

然后架不住社区追问,直接摊牌:「既然大家非要我说出这个名字——KIMI K2.5!!没错,就是我们的起点。」

最终,在两个小时之后,和另一位联创Aman Sanger在同一时间发了道歉。
他表示,开始没在博客中提到Kimi基座模型,的确是犯错了,以后一定改正。
态度还算诚恳,但问题在于——发布时为什么不说?

最终,Kimi也非常大度地下场和解,表示非常自豪看到K2.5为Composer 2提供基座。

至此,事情彻底圆满了。
此前已有前科
2025年10月,Composer 1 发布时,全球多地用户就曾反馈:这个宣称自研的编程助手,竟然在思考过程中偶尔蹦出地道的中文。
即便经几家媒体证实,Cursor及其竞争对手Windsurf确实都在底层套用了经过微调的中国开源大模型,但Cursor选择了冷处理——不解释、不回访,然后,在今年2月迅速迭代到1.5版本。
但这一次,Composer 2的翻车更加彻底,可以说分明是利用别人研发投入进行的「利润套利」。
目前,Cursor的估值是293亿美元,正寻求500亿美元融资;而提供底层能力的Kimi,上轮估值为43亿美元。
以此在二级市场上换取12倍估值的操作,就更是令人叹为观止了。
Cursor为什么偏偏选了Kimi K2.5?
话说回来,开源模型那么多,Cursor为什么选Kimi K2.5当基座?
答案可能没那么复杂。
在Artificial Analysis的综合排行榜上,K2.5就是当前最强的开源模型之一。
从官方公布的跑分来看,K2.5在Agent能力上也是压过了一众闭源巨头。
Humanity's Last Exam得分50.2,GPT-5.2只有45.5,Claude Opus 4.5是43.2;BrowseComp拿到74.9,把GPT-5.2的65.8甩开了近10个点。
在图像和视频理解上同样全面领先,MathVision 84.2分排名第一,VideoMMMU和LongVideoBench也都拿到了最高分。

论文地址:https://github.com/MoonshotAI/Attention-Residuals/blob/master/Attention_Residuals.pdf
架构上,K2.5是一个万亿参数的MoE模型,但每次推理只激活320亿参数,用不到总量3.2%的算力撑起前沿级的能力。256K上下文窗口,原生支持文本、图像、视频三模态输入。
编码能力是K2.5最突出的长板,尤其是前端开发场景。比如,给它一张UI设计稿,K2.5能直接输出带交互动效和滚动触发效果的完整前端代码。
同时,K2.5还引入了Agent Swarm机制,最多可以同时调度100个子Agent并行执行任务,完成多达1500次工具调用,任务执行速度提升4.5倍。
对于Cursor这种需要处理大型代码库、长链任务的产品来说,K2.5几乎是量身定做的底座。

数据和实力之外,这场Cursor风波还意外地给K2.5送上了一波全球级的信用背书。
事实上,除了这次的抓包外,马斯克一周内已经两次点名Kimi。
3月16日,Kimi团队在arXiv发布了一篇名为「Attention Residuals」的架构论文,马斯克转发并评价「Impressive work」。

Andrej Karpathy跟帖感慨,就连OpenAI前联合创始人Jerry Tworek都直呼「deep learning 2.0」。


与此同时,全球最大的CDN服务商Cloudflare也在同一周宣布,将Kimi K2.5作为Workers AI平台上线的首个开源模型。


在官博中,Cloudflare透露了一个惊人的数字:他们内部有一个基于K2.5的安全审计Agent,每天处理超过70亿智元(token)。
如果是用中等水平的闭源模型,仅这一个场景、一个代码库,年成本就要240万美元。切换到K2.5之后,成本直降77%。

一个中国开源模型,同时被估值500亿美元的硅谷编程工具选为基座、被全球CDN巨头用于生产环境。
这种认可的含金量,不是随便一次基准跑分能替代的。
有一说一
Composer 2确实能打
抛开基座争议,Composer 2的性能本身还是值得一看得。
首先,它在跑分上实现了Cursor有史以来最大的单代际跳跃。
CursorBench上,Composer 2得分61.3,对比上一代Composer 1.5的44.2,提升近40%!

在测试AI在命令行环境中定位bug、编写修复、验证结果等全链路能力的Terminal-Bench 2.0上,Composer 2同样拿到了61.7的高分,一举超过Claude Opus 4.6的58.0和Opus 4.5的52.1。

虽然能力不是最强的,但成本确实是Composer 2最锋利的武器。
标准版定价每百万输入智元(token)仅0.5美元,输出2.5美元,比上一代Composer 1.5的3.5/17.5美元便宜了86%。
Composer 2 Fast不仅速度堪称地表最快,而且定价也只提到了1.5/7.5美元,同样比1.5版便宜57%。
相比之下,一个Claude Code订阅月费200美元,背后的计算成本约为5000美元。


这个定价策略的底气,来自Cursor在训练层面做的真正有技术含量的事——compaction-in-the-loop强化学习。
Cursor的做法是把摘要过程直接嵌入RL训练循环:当生成过程触发智元(token)长度阈值时,模型自行暂停并压缩上下文,从5000+智元(token)浓缩到约1000 智元(token)。
由于强化学习的奖励函数覆盖了整个链条(包括摘要步骤),模型学会了哪些细节必须保留、哪些可以丢弃。
结果显示,上下文遗忘率比前代方法降低50%,模型可以处理需要数百步连续操作的项目级重构任务。也就是,智元(token)效率提升了5倍。
此外,Composer 2还深度集成了Cursor的Agent工具链。包括语义代码搜索、文件和文件夹检索、文件读写、shell命令执行、浏览器控制和网页访问。
这套工具栈意味着Composer 2不只是一个回答问题的模型,而是一个可以在IDE里「动手干活」的Agent。
一句话总结:基座是别人的,但上层训练确实下了功夫。
打开引擎盖,里面全是中国造
Composer 2的技术含量不假。但这件事真正的看点,不在Cursor做了多少RL,而在于——当它需要一个最强底座的时候,选了谁。
而且Cursor不是个案,问题也不止出现在硅谷。
有研究显示,日本十大主流AI模型中,六个的基座来自DeepSeek或Qwen系列,多数公司在宣传中淡化甚至隐去了与底层模型的关联。
换句话说,全球AI应用层的「地基」,正在被中国开源模型悄悄铺满。
从东京到旧金山,从独立开发者到500亿美元估值的公司,大家打开引擎盖一看——里面跑的越来越多是中国造的发动机。
而网友Yuchen Jin的预测,则看得更远:「开源模型实验室未来会靠授权分成赚钱——这才是真正的飞轮。」
如果这个逻辑成立,Kimi免费放出K2.5,Cursor拿去做出20亿美元年收入的产品,最终Kimi通过许可条款和品牌曝光把价值收回来。
开源不再是慈善,而是一种更高维度的商业策略。

这次事件最有趣的是,只需要一个开发者、一次API调试、一串没改掉的模型ID,就把一家AI编程巨头精心构建的「自研」叙事拆穿了。
不得不说,技术世界里最难隐藏的东西,永远是代码本身。
参考资料:
https://x.com/fynnso/status/2034706304875602030
https://x.com/aakashgupta/status/2035003184192630985
https://x.com/leerob/status/2035035355364081694
https://x.com/MillionInt/status/2033393130201059515
https://x.com/karpathy/status/2033400893346107835
https://x.com/elonmusk/status/2034941631871455262
https://x.com/Yuchenj_UW/status/2035012260008272007
https://blog.cloudflare.com/workers-ai-large-models/
https://cursor.com/cn/blog/composer-2
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社