kicc 发表于 2025-6-30 16:44:08

华为宣布开源盘古7B稠密和72B混合专家模型

6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。此模型使用 Pangu Model License Agreement 许可证开源。
具体请见官方仓库:GitCode - 全球开发者的开源社区,开源代码托管平台

Lucifer 发表于 2025-6-30 16:44:48

看了一下许可证,这个许可证最大的限制是不允许在欧盟地区使用此模型

侧面 发表于 2025-6-30 16:45:46

Lucifer 发表于 2025-6-30 16:44
看了一下许可证,这个许可证最大的限制是不允许在欧盟地区使用此模型

这玩意应该是为了推销昇腾910C和超集群的吧,应该对普通用户价值不大

侧面 发表于 2025-6-30 16:45:57

当然如果真是性能强劲又开放的模型,那真是太好了

xchenxjiex 发表于 2025-6-30 16:46:08

看看是面向用户还是面向题库了

FineRIk 发表于 2025-6-30 16:46:16

等等排行榜

kallen007 发表于 2025-6-30 16:46:30

等模型评测了

nxwqwt 发表于 2025-8-11 21:30:03

华为又开源啦牛哇
页: [1]
查看完整版本: 华为宣布开源盘古7B稠密和72B混合专家模型