DeepSeek-V3.1震撼发布,全球开源编程登顶!R1/V3首度合体,训练量暴增10倍
【导读】DeepSeek-V3.1官宣了,作为首款「混合推理」模型,将开启智能体新时代。新模型共有671B参数,编码实力碾压DeepSeek-R1、Claude 4 Opus,登顶编程开源第一。
官宣了!
刚刚,DeepSeek正式上线DeepSeek-V3.1,这是迈向智能体时代第一步。
新版V3.1采用了「混合推理」,一个模型,两种模型:思考与非思考(自主切换)。
相较于DeepSeek-R1-0528 ,DeepSeek-V3.1-Think推理速度更快。
最关键的是,V3.1具备了强大的智能体能力,不论是工具使用,还是多步骤任务,全部拿捏。
在软件工程基准测试中,DeepSeek-V3.1全方位碾压V3-0324和R1-0528。
在人类的最后考试HLE中,V3.1拿下了29.8高分,另外在数学、知识问答、编程等任务中,全面超越推理模型R1。
CoT压缩训练后,V3.1-Think在输出token减少了20%-50%,与R1-0528打成平手
在Hugging Face上,一共开源了两款V3.1 Base和V3.1,前者在V3基础上又进行了8400亿token的持续预训练,扩展了上下文支持。
项目地址:
https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Base
https://huggingface.co/deepseek-ai/DeepSeek-V3.1
总的来说,DeepSeek-V3.1此次更新的最大亮点:
参数共671B,激活参数37B,上下文128k
混合推理模式:一个模型,即可同时支持推理模式和非推理模式。
更智能的工具调用能力:工具使用、智能体任务有了显著提升,多步推理能力强化,复杂搜索不在话下
更高的推理效率:回答质量上与DeepSeek-R1-0528相媲美,思考效率飙升,反应快如闪电
全面基准测试:实力全面碾压DeepSeek-R1-0528、DeepSeek-V3-0324
在API方面,deepseek-chat是非思考模式,deepseek-reasoner是思考模式,全部支持128k。
从9月5日开始,采用新的API定价
继OpenAI gpt-oss之后,DeepSeek终于做出了最强回应。
V3.1编程击败Claude 4,训练扩增10倍
HF模型卡中,给出了DeepSeek新模型技术的详细解读。
基于DeepSeek-V3.1-Base,DeepSeek-V3.1通过后训练优化完成。而V3.1-Base又是基于V3模型训练而来。
具体来说,它通过「两阶段长上下文扩展策略」构建,遵循了原始V3论文中的方法。
研究团队又扩展了数据集,收集了更多长文档,并大幅延长了两个训练阶段的规模。
32k扩展阶段增加了10倍,达6300亿Token,而128k扩展阶段增加了3.3倍,达到2090亿Token。
此外,DeepSeek-V3.1采用UE8M0 FP8缩放数据格式进行训练,确保与微尺度数据格式的兼容性。
在通用能力的基准测试中,开启思考模式V3.1,在MMLU、GPQA上拿下了亮眼的成绩。
数学方面,V3.1同样刷新SOTA,创下了最高分。
如上文所述,V3.1是迈向智能体时代第一步。它可以支持多种Code Agent框架,开发者可以自己搭建智能体。
在编码测试中,DeepSeek-V3.1-Thinking在Aider编码测试中,拿下了76.3%高分,远超Claude 4 Opus、Gemini 2.5 Pro(0325)。
在编码智能体测试中,DeepSeek-V3.1-Non Thinking性能碾压R1、V3。
此外,DeepSeek-V3.1可以支持Search Agent,在推理模式下可以使用。
当需要访问外部信息或最新信息的复杂问题,V3.1可以通过多轮工具调用流程,利用用户提供的搜索工具来完成。
基准测试中,尤其是BrowseComp上,V3.1实力粉碎了R1。
第三方Artificial Analysis基准,同样验证了DeepSeek-V3.1强大实力,仅次于gpt-oss。
在推理效率方面,V3.1也与OpenAI相当。
如今来看,DeepSeek-V3.1稳坐编程开源第一王座。
参考资料:
https://x.com/karminski3/status/1958429843558945015
https://x.com/deepseek_ai/status/1958417062008918312
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。

游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。