盘古团队回应抄袭事件:严格遵循了开源要求 做了版权的清晰标注

2025年07月05日,18时58分44秒 科技新知 阅读 6 views 次

7月5日消息,盘古方面今日正式回应了关于盘古大模型抄袭阿里通义大模型的言论。盘古团队称严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。

近日,Github上发布了一篇技术论文主要讲后训练和微调想要抹除原模型的水印、换皮抄袭模型这件事可以通过新的“模型指纹”技术溯源原有的预训练模型到底是谁。

此前(2025年6月30日)华为宣布开源盘古70亿参数的稠密模型、盘古 Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。

作者通过LLM-Fingerprint的评估方法(模型指纹)方法,有人发现Pangu Pro

MoE 模型与Qwen-2.514B模型在注意力参数分布上的相关性极高(平均相关性高达0.927),远超其他模型对比的正常范围。

并且其推断:Pangu Pro MoE 并非完全从零;技术文档中声称Pangu是“自研”,但可能存在版权侵权和报告造假。

对此,盘古团队表示盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。盘古严格遵循了开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。(崔玉贤)

以下为盘古官方具体声明:

我们注意到近期开源社区及网络平台关于盘古大模型开源代码的讨论。

盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。其他技术特性创新,请参考昇腾生态竞争力系列技术报告披露内容。

盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。我们始终坚持开放创新,尊重第三方知识产权,同时提倡包容、公平、开放、团结和可持续的开源理念。

感谢全球开发者与合作伙伴对盘古大模型的关注和支持,我们高度重视开源社区的建设性意见。希望通过盘古大模型开源,与志同道合的伙伴一起,探索并不断优化模型能力,加速技术突破与产业落地。

我们欢迎并期待大家在开源社区Ascend Tribe,就技术细节进行深入、专业的交流。

盘古Pro MoE技术开发团队

本文来自网易科技报道,更多资讯和深度内容,关注我们。

(来源:网易科技)

标签:


用户登录