华为开源盘古7B稠密及72B混合大模型

AI资讯2个月前发布
22 0

6月30日,华为正式宣布开源了盘古系列模型及其相关技术。

此次开源包括70亿参数的稠密模型720亿参数的混合专家模型(盘古 Pro MoE 72B),以及基于昇腾技术的模型推理方法。

华为表示:“此举是华为在昇腾生态战略上的重要一步,旨在推动大模型技术的研究与创新发展,加速人工智能技术在各行业的应用与价值创造。”

  • 盘古 Pro MoE 72B 模型的权重和基础推理代码已正式上线开源平台。

  • 基于昇腾技术的超大规模混合专家模型(MoE)推理代码已正式发布。

  • 盘古 7B 模型的相关权重与推理代码预计将于近期在开源平台上线。

华为开源盘古7B稠密及72B混合大模型

以下是开源地址:

https://gitcode.com/ascend-tribe

© 版权声明

相关文章