科技旋涡编辑部
微软今日宣布,将为 Copilot+ 电脑推出“专为 NPU 优化”的 DeepSeek-R1 AI 模型。首批适配设备包括 Snapdragon X 处理器,随后将支持 Intel Lunar Lake 和 AMD Ryzen AI 9 处理器。首个发布的版本为 DeepSeek-R1-Distill-Qwen-1.5B,开发者可通过 Microsoft AI Toolkit 进行下载和使用。未来还将推出 7B 和 14B 版本。
微软在官方博客中表示:“这些优化模型让开发者能够构建和部署高效运行于本地设备的 AI 应用,充分利用 Copilot+ 电脑中强大的 NPU。”微软提到,其在 Phi Silica 项目上的技术积累,使得推理效率得到了极大提升,实现了极快的首个 token 生成速度和高吞吐率,同时对电池续航和 PC 资源的消耗影响最小。此外,微软还利用 Windows Copilot Runtime (WCR) 以及 ONNX QDQ 格式,确保这些 AI 模型能够适配 Windows 生态系统中的多种硬件设备。
微软在文章中强调了 DeepSeek R1 模型在 NPU 设备上的本地运行优化:
1. 采用滑动窗口机制,即便硬件不支持动态张量计算,仍能保证超快的首个 token 生成和长上下文支持。
2. 使用 4-bit QuaRot 量化方案,充分发挥低比特处理的优势,大幅提升推理效率。
微软表示,1.5B 版本的 Distilled R1 模型将很快上线,并可通过 VS Code 的 AI Toolkit 扩展获取。开发者还可在 Playground 中本地运行 DeepSeek R1,前提是设备符合 Copilot+ 兼容标准。除了本地部署外,微软还将在 Azure AI Foundry 云端提供 DeepSeek R1 服务,企业用户可在这一可信、可扩展的企业级 AI 平台上无缝集成 AI,满足 SLA、数据安全和负责任 AI 方面的要求,并享受微软提供的可靠性和技术创新支持。
值得注意的是,微软对 DeepSeek R1 的支持推进速度极快,而与此同时,美国科技公司对 DeepSeek 的存在感到担忧。OpenAI 甚至指控 DeepSeek 盗用了其专有代码来开发 AI 模型,并声称该模型的开发成本不到 1000 万美元——远低于美国科技公司投入的数十亿美元。
往期推荐