华为诺亚实验室昨夜突放狠招,针对开源社区质疑盘古大模型抄袭的声浪发布硬核声明,强调全球首个昇腾专属MOE架构纯属自研,独创分组混合专家模型MOGE破解千卡训练负载失衡难题,训练效率碾压同规格产品,这份火药味十足的公告直指近期外媒渲染的代码剽窃论,团队承认部分基础组件借鉴开源代码但严守许可证规范,所有引用均带版权标注,更喊话全球开发者加入昇腾部落AscendTribe深度验码,回溯争议源头,盘古Pro MOE开源后因部分代码结构与海外模型神似引发争议,知乎热帖曾列出87行疑似雷同代码,华为此次用技术报告正面刚,披露分布式训练动态路由算法等核心创新,北京AI实验室教授解读MOGE架构价值,其分组专家调度机制可使万亿参数模型训练成本降40%,深圳芯片工程师补充昇腾910硬算力与MOGE的耦合性超越英伟达方案,这场代码清白保卫战背后是中美AI底层话语权争夺,当华为在声明末尾埋下产业落地加速的彩蛋,中国大模型开源生态正迎来最硬核的成人礼。
评论列表