华为官方声明,确认盘古大模型是自研 盘古大模型开源是好事,可网络上很多不明真相的人见风就是雨,可能连基础大模型是什么都不知道,纯粹就是带有偏见。 争议的焦点在于GitHub研究者提出的“模型指纹”方法,通过注意力参数分布的相关性(0.927)推断模型趋同性。然而,该方法尚未被学术界广泛验证,且存在争议: 1、训练随机性干扰:大模型训练涉及海量数据采样、权重初始化等随机过程,参数趋同可能是独立训练的偶然结果。 2、架构差异影响:盘古Pro MoE采用分组混合专家架构(MoGE),与阿里Qwen的架构设计存在本质差异,仅凭注意力参数无法全面反映模型创新性。 3、对比实验缺陷:研究者未公开完整测试代码,且其对比方法(如将盘古与百川、混元等模型对比)显示相似性普遍偏高,暗示方法可靠性存疑。 华为承认部分代码参考了开源实践,并标注了版权声明,符合开源协议要求,这也是业界通常的的做法,合法合规。