华为宣布重要决定:正式开源!

图片

6月30日,华为正式宣布将盘古7B(70亿参数)、盘古Pro MoE 72B(720亿参数混合专家模型)及昇腾推理技术开源。

从旁观视角来看,华为此次开源绝非简单的技术共享,而是华为昇腾生态的“战略转折点”,更是一次对西方AI技术霸权的正面突围。

图片

因为根据分析来看,盘古Pro MoE 72B 的模型权重和基础推理代码已经火速上线开源平台,而盘古7B 虽说相关资源要晚些时候开放,但依然让大家翘首以盼。

华为这波操作,直接打破了以往大模型技术 “闭门造车” 的局面,把核心技术大方地摆在台面上,让开发者们随意取用、改造。

从技术实力上看,盘古大模型系列一直是华为的 “秘密武器”。就拿盘古 Pro MoE 72B 来说,它采用的分组混合专家(MoGE)架构简直是 “黑科技”。通过分组均衡路由技术,实现专家负载动态分配,在昇腾 300I Duo 平台上单卡推理吞吐量飙升至 321 tokens/s,比同规模模型提升 15%。

这意味着什么?以往模型在处理复杂任务时,常常会因为负载不均 “掉链子”,而华为这一技术,直接把这个行业痛点给 “治好了”。再加上软硬协同优化,昇腾芯片算力利用率(MFU)提升 50% 以上,给超大规模模型工业化部署提供了全新的 “解题思路”。

所以华为这次决定开源,更是昇腾生态战略的关键一步。一直以来,大模型技术研发成本高、门槛高,很多企业有心无力。华为此举,直接把门槛给降低了。

图片

瞧瞧广汽集团,靠着盘古多模态大模型,复杂场景复原变得超简单,智能驾驶模型迭代快得飞起,实现 “两天一个版本”。

中国石油基于盘古打造昆仑大模型,在 100 多个专业领域落地应用,勘探开发等工作效率大幅提升。这就是开源的魅力,让大模型技术不再是少数巨头的 “专利”,能迅速渗透到千行百业。

再看华为云新一代昇腾 AI 云服务,基于 CloudMatrix 384 超节点,单卡推理吞吐量高达 2300 tokens/s,为开发者提供了强大的算力后盾,媲美国际领先水平。

因此总体上来说,华为通过开源,构建 “技术开源 - 生态共建 - 价值共享” 的闭环。往后开发者能依托华为开源平台、昇腾硬件和 ModelArts 工具链,快速定制行业专属大模型。

华为轮值董事长徐直军曾直言:“AI产业必须避免走向算力垄断。”此次开源正是宣言的实践:当盘古大模型的权重、代码、推理工具全部开放,昇腾芯片的“生态荒漠”瞬间变成“技术绿洲”。

可以预见,未来可能出现这样的场景:一家欧洲车企用盘古MoE 72B训练自动驾驶模型,却选择华为昇腾而非英伟达H100部署。

图片