模型被指抄袭后华为盘古团队发声:严格遵循开源要求

2025年07月06日,08时38分54秒 科技新知 阅读 5 views 次

凤凰网科技讯(作者/于雷)7月7日,针对近期开源社区及网络平台上关于华为盘古大模型开源代码的广泛讨论与质疑,盘古Pro MoE技术开发团队正式发布官方声明,对此事做出回应。

声明首先明确指出,盘古Pro MoE开源模型是基于华为自家的昇腾(Ascend)硬件平台开发、训练的基础大模型,并非基于其他厂商模型进行增量训练的产物。华为方面强调,该模型在架构设计和技术特性上均有关键创新

在技术层面,华为特别介绍了其创新性提出的分组混合专家模型(MoGE)架构。据称,这是全球首个面向昇腾硬件平台设计的同规格混合专家模型。该架构的核心优势在于有效解决了大规模分布式训练过程中的负载均衡难题,从而显著提升了整体的训练效率。对于更多技术细节,官方建议参考已披露的昇腾生态竞争力系列技术报告。

对于备受关注的代码相似性问题,声明中也并未回避。华为方面承认,盘古Pro MoE开源模型的部分基础组件代码实现,确实参考了业界的开源实践,并涉及其他开源大模型的部分开源代码。但团队同时强调,这一做法严格遵循了开源许可证的要求,并在相关的开源代码文件中清晰标注了版权声明,认为这是开源社区的通行做法,也符合开源协作的精神。

最后,该声明重申了华为在开源领域的立场,表示坚持开放创新并尊重第三方知识产权。团队欢迎并期待开发者与合作伙伴在官方开源社区Ascend Tribe,就技术细节进行更深入、专业的交流与探讨,共同推动模型能力的优化与技术落地。

(来源:新浪科技)

标签:


用户登录