6月30日,华为正式宣布开源了盘古系列模型及其相关技术。
此次开源包括70亿参数的稠密模型和720亿参数的混合专家模型(盘古 Pro MoE 72B),以及基于昇腾技术的模型推理方法。
华为表示:“此举是华为在昇腾生态战略上的重要一步,旨在推动大模型技术的研究与创新发展,加速人工智能技术在各行业的应用与价值创造。”
-
盘古 Pro MoE 72B 模型的权重和基础推理代码已正式上线开源平台。
-
基于昇腾技术的超大规模混合专家模型(MoE)推理代码已正式发布。
-
盘古 7B 模型的相关权重与推理代码预计将于近期在开源平台上线。
以下是开源地址:
https://gitcode.com/ascend-tribe
© 版权声明
文章版权归作者所有,未经允许请勿转载。