6 月 30 日消息,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。
华为官方表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。
目前,盘古 Pro MoE 72B 模型权重、基础推理代码,已正式上线开源平台。基于昇腾的超大规模 MoE 模型推理代码,已正式上线开源平台。盘古 7B 相关模型权重与推理代码将于近期上线开源平台。
这也是华为首度宣布开源盘古大模型,大模型开源的本质是以开放换生态,以生态养技术。
对于华为而言,本次并不是全面开源,而是选择了两款用量相对较多的模型,70 亿参数的稠密模型参数量适中、性能均衡、部署门槛较低,在智能客服、知识库等多种场景中均可应用;盘古 Pro MoE 720 亿参数的混合专家模型凭借其稀疏激活、动态路由和多专家协作的特性,更适合处理相对复杂的任务。
不排除华为未来继续开源的可能性,一般而言,华为在做好技术稳定性等优化的基础上,先用两款模型试验开发者和市场反应,在可用性和易用性方面持续优化,再进一步开源。开源只是第一步,如何持续运营开源生态,远比开源本身更重要。
其中值得关注的是,本次华为还开源了基于昇腾的模型推理技术,国产 AI 之难,难在芯片,更难在生态,如果要让开发者更好地调用盘古等国产模型,就要让底层的 AI 基础设施实现更优适配,这也是华为开源基于昇腾的模型推理技术的意义。
同时,盘古大模型加昇腾推理技术的开源,开放了国产 AI 技术栈,类比 DeepSeek 的开源策略,在 MoE 架构成为主流时,其他厂商都无法复现 DeepSeek 同样的性能和成本,因此 DeepSeek 又开源了自己的代码仓库,进一步推动 DeepSeek 的普及,盘古和昇腾的搭配也能起到同样的效用。
此外,华为不止在模型和工具层有产品,昇腾这一层级对应的是目前更大的 AI 算力市场。在近日举办的华为开发者大会上,华为云 CEO 张平安宣布,基于 CloudMatrix 384 超节点架构的新一代昇腾 AI 云服务全面上线,以及盘古大模型 5.5 正式发布。
盘古大模型从训练到推理均深度依赖昇腾芯片,就像英伟达 CUDA 生态适合大模型,华为开源盘古大模型的本质,是通过技术普惠 + 生态友好将昇腾硬件嵌入 AI 产业链的核心环节。开发者使用盘古模型时,需依赖昇腾芯片的算力支持;企业落地行业应用时,需采购昇腾服务器或云服务;政企客户推动自主创新时,昇腾加开源盘古也更有竞争力。
而从华为开源了大量推理技术也可看出,华为希望在大模型快速落地的阶段,让盘古有更多的调用,更广阔的落地市场,如此这种从模型到硬件再到场景的闭环,才能使华为的全栈 AI 能力得以正向循环。(本文首发于钛媒体 APP,作者 | 张帅,编辑 | 盖虹达)