刚刚!Qwen3深夜升级,碾压Kimi K2和DeepSeek V3
Qwen3-235B-A22B-Instruct-2507-FP8。
新的Qwen3模型,通用能力显著提升,包括指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面。
在GQPA(知识)、AIME25(数学)、LiveCodeBench(编程)、Arena-Hard(人类偏好对齐)、BFCL(Agent能力)等众多测评中表现出色,超过Kimi-K2、DeepSeek-V3等顶级开源模型以及Claude-Opus4-Non-thinking等领先闭源模型。
此外,刚刚更新的Qwen3模型,还增强了以下关键性能:
· 在多语言的长尾知识覆盖方面,模型取得显著进步。
· 在主观及开放性任务中,模型显著增强了对用户偏好的契合能力,能够提供更有用的回复,生成更高质量的文本。
· 长文本提升到256K,上下文理解能力进一步增强。
为获得最佳性能,阿里也贴心地为大家准备了推荐配置:
· 采样参数:Temperature=0.7、TopP=0.8、TopK=20、MinP=0 · 合适的输出长度:输出长度为16,384Token,这对于指令模型来说已经足够
· 规范输出格式:
数学问题:在提示词中加入「请一步一步推理,并将最终答案放入\x5cboxed{}中。」
多项选择题:在提示词中添加以下JSON结构以规范回复格式:「请在answer字段中仅填写选项字母,例如:"answer": "C"。」
注意:此模型仅支持非思考模式,在输出中不会生成块。同时,不再需要指定enable_thinking=False。
目前,Qwen3新模型已在魔搭社区和Hugging Face上开源:
https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。

游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。