字节对MoE模型训练成本再砍一刀 成本可节省40%

2025年03月10日,17时53分33秒 科技新知 阅读 51 views 次

财联社3月10日电,字节豆包大模型团队官宣开源一项针对MoE架构的关键优化技术,可将大模型训练效率提升1.7倍,成本节省40%。据悉,该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万GPU小时训练算力。

(来源:新浪科技)

标签:


用户登录