微软拥抱 DeepSeek,Copilot+ PC 本地运行 7B 和 14B 模型

2025-03-04 发布 · 浏览92次 · 点赞0次 · 收藏0次
感谢网友 华南吴彦祖gc_time 的线索投递!

3 月 4 日消息,微软今日宣布,通过 Azure AI Foundry 接入 DeepSeek-R1 7B 和 14B 蒸馏模型,为 Copilot+ PC 提供本地运行 7B 和 14B 模型的能力

早在今年 1 月,微软就宣布计划将 DeepSeek-R1 模型的 NPU 优化版本直接带到搭载高通骁龙 X 处理器的 Copilot+ PC 上。如今,这个承诺终于兑现。

从微软官方博客获悉,模型将从搭载高通骁龙 X 处理器的 Copilot+ PC 开始上线,随后是英特尔酷睿 Ultra 200V 和 AMD 锐龙的设备。

由于模型运行在 NPU 上,因此可以减少对 PC 电池续航和散热性能影响的同时,持续获得 AI 计算能力,CPU 和 GPU 将可用于执行其他任务。

微软强调,它使用了 Aqua 内部自动量化工具,将所有 DeepSeek 模型变体量化为 int4 权重。不幸的是,模型标记速度相当低。微软报告称,14B 模型的标记速度仅为 8 tok / 秒,而 1.5B 模型的标记速度接近 40 tok / 秒。微软提到,该公司正在进一步优化提高速度。

开发者可以通过 AI Toolkit VS Code 扩展在 Copilot+ PC 上下载和运行 DeepSeek 模型的 1.5B、7B 和 14B 版本。

微软拥抱 DeepSeek,Copilot+ PC 本地运行 7B 和 14B 模型 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。