刚刚,华为在人工智能领域再落一子,正式宣布开源三款大模型——盘古7B稠密模型、盘古Pro MoE 72B混合专家模型,以及基于昇腾芯片的超大规模MoE模型推理技术。这一举措不仅展现了华为在AI基础设施领域的深厚积累,更通过开放核心能力,推动大模型技术普惠化,加速千行百业的智能化转型。

华为重磅开源三大模型,加速AI产业落地与生态共建
三大模型开源,覆盖全场景需求
此次开源的模型各具特色,形成从轻量化到高性能的完整矩阵:
- 盘古Embedded 7B:智能推理的“双系统”
- 盘古Pro MoE 72B:高效能的“专家协作”
- 基于分组混合专家(MoGE)架构,总参数720亿但仅激活160亿,通过动态路由技术解决传统MoE模型负载不均问题,推理效率提升显著(单卡最高1528 tokens/s)。
- 性能对标更大规模稠密模型,在多项公开测试中表现领先,支持大规模并行训练,为企业提供高性价比的部署方案。
- 昇腾推理技术开源:硬件与软件协同优化
- 华为同步开放了基于昇腾芯片的超大规模MoE模型推理代码,进一步降低AI落地门槛,助力开发者快速适配国产化算力。
开源背后的生态战略
华为此次开源并非简单释放模型权重,而是通过全栈技术开放构建产业生态:
- 硬件适配:模型针对昇腾NPU优化,强化国产算力与软件的协同性;
- 开发支持:开源代码包含基础推理框架,降低企业二次开发成本;
- 社区共建:邀请全球开发者参与优化,反馈将反哺模型迭代。
华为表示,未来将持续投入大模型开源生态,推动AI在医疗、金融、制造等领域的规模化应用。
行业影响:降低门槛,加速创新
大模型开源已成全球趋势,但多数闭源或限制商用。华为此次开源的7B/72B模型覆盖了从边缘设备到云端的高频需求场景,尤其适合对成本敏感、需快速落地的企业。例如:
访问开源地址(https://gitcode.com/ascend-tribe)即可获取代码与文档,华为呼吁开发者共同参与完善,推动AI技术民主化进程。
结语
在AI竞赛从“参数规模”转向“应用落地”的当下,华为通过开源核心模型与工具链,既展现了技术自信,也为行业提供了“开箱即用”的解决方案。这一动作或将加速国产大模型生态的成熟,重塑全球AI竞争格局。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...