MiniMax不需要讨好开源

2026年04月21日,20时55分32秒 科技新知 阅读 4 views 次

文 | 市象,作者|景行,编辑|古廿

“别再装了,别再撒谎,把开源标识从你的社区主页移除吧。”

这番评论,来自一位海外社区用户在MiniMax开发者关系负责人帖子下的留言。

这场风波源于一场对开源定义权的争议。近日MiniMax悄悄更换MiniMax2.7模型的开源协议,将原本的标准MIT协议(开源软件协议)更改为Modified-MIT协议。

新协议推翻了MiniMax2.7无限制商用、仅需保留版权声明的核心规则,所有商业用途必须获得MiniMax授权,且没有营收豁免门槛。

一则海外用户评论写道,这并不是开源许可,如果你在未经书面许可的情况下,在任何创收产品中部署该模型,您将面临违约和版权侵权诉讼的风险

对此MiniMax尝试平息用户愤怒。MiniMax开发者关系负责人RyanLee发文称,MiniMax2.7模型仍然开放,仍然支持下载、本地运行、模型微调,并基于模型发布非商业项目。

MiniMax不需要讨好开源

而修改开源协议的初衷是避免误解。在过去多次发布中,官方发现产品遭遇第三方平台借MiniMax之名提供托管服务,但产品质量遭到了严重阉割。

这些行径包括但不限于过度量化(将高精度模型转换为低精度,提升推理速度但降低性能)、错用对话模板(可能导致模型无法正确解析指令,答非所问)、无声交换(宣称使用MiniMax模型,但暗地里换成其他低性能模型,骗取用户付费)。

一言以蔽之,在过去的开源协议下,MiniMax系列模型被第三方平台长期加以恶劣的挂羊头卖狗肉式滥用,并严重冲击产品信誉。

而第三方平台之所以滥用MiniMax模型,核心目的在于降本增效,以更快速度部署降低质量的前沿开源模型,不仅可以降低服务器成本,还能借时间差吸引流量,借知名模型的品牌效应给自己赚取差价,透支的却是品牌信誉。

这也解释了,为何MiniMax宁愿顶着海外用户的怒火,也要强行更改MIT协议。当智能体热潮为大模型行业带来商业利润增长的曙光,任何一个不良平台的滥用动作,都可能推倒品牌的信任多米诺骨牌,进而冲击企业经营。

较真的老外给MiniMax上了一课

这场舆论风暴,爆发于对开源定义更为重视的海外开源社区。

在Hugging Face这个全球最大的开源模型社区,用户对开源的定义相当严苛。海量用户评价表明,用户并不在意模型开发商是否限制商用权限,不满更多的,是MiniMax一边限制商用,一边在Hugging Face等开源社区保留MIT标识。

在多种软件授权条款中,MIT协议的条件相对宽松,其核心定义为软件需对所有人提供免费处置、修改、复制、分发、授权甚至销售,唯一的限制是,必须包含许可声明。

这意味着,带有MIT标识的大模型,须允许用户与第三方平台自用甚至用于商业场景,自由修改模型代码或权重,自由本地部署。同时无需支付任何费用,无需向开发商申请许可。

一个更直观的案例是,DeepSeek被国内云厂商集体接入,部署在自己的服务器上,核心源于前者坚定的全量开源策略,这令其迅速构建庞大的开发者生态,迅速在市场中站稳脚跟。

这也是MiniMax2.7遭遇社区争议的核心。产品打着开源旗号吸引开发者使用,却同时用修改后的协议推翻完全开源的核心承诺。

同时,作为旗舰模型,在MiniMax官方表述中,此次风暴中心的MiniMax2.7模型已经具备国际一线模型水准,在多编程语言的SWE-Pro中,正确率追平GPT-5.3-Codex;在专业知识与任务交付能力上,MiniMax2.7得分仅次于Opus 4.6、Sonnet 4.6和GPT5.4,超过了GPT5.3。

令开发者焦虑的,是协议中模糊的商用概念。按照修改版MIT协议,用户不得将MiniMax2.7用于付费服务,支持商业产品、服务或运营。独立开发者的付费 SaaS 产品,到第三方 API 托管、微调后的商业部署都有“越线”风险。而授权的最终解释权,掌握在MiniMax 手中。

正因如此,不断有用户询问其使用场景是否触犯协议——如用于公司工作流程,或蒸馏并销售代码。

也有海外用户表示,对社区来说,MiniMax2.7修改开源协议是一次倒退,但事出有因,但希望MiniMax未来能像Kimi或Llama那样,通过收入、用户规模制定限制商用门槛。

在限制模型商用方面,MiniMax并非先行者。

如Meta的Llama大模型,自2代版本允许商用,但附带限制条件,月活超7亿的商用平台产品需向Meta申请额外授权;不得将Llama用于训练或改进其他大模型;分发时必须在显著位置标注该服务使用Llama模型;同时不得用于开发竞争性的生成式AI产品。

国内模型中,Kimi K2.5同样采用修改版MIT协议。根据协议要求,若商业产品的月营收超过2000万美元或月活用户超过1亿,则必须在用户界面显著位置标注“Kimi K2.5”标识。除此之外,Kimi K2.5不限制商用、修改、二次分发或本地部署。

智谱则采用了分层开源路线。GLM-5等主力模型采用MIT协议,而CogView4、GLM-TTS等特定模型采用Apache 2.0协议,旗舰级模型如GLM-5-Turbo则为闭源,仅通过官方平台提供API开放。

区别在于,Apache 2.0更侧重专利保护,带有明确的专利授权与反诉讼条款,并强制要求开发者对修改过的文件进行标注。这令智谱的策略相对灵活,既有开源模型积累开发者生态,并转化金融、政企等核心客户,也能抓住Agent红利,提升API收入。

相较业内做法,MiniMax显然对开源旗舰模型更有信心。其创始人闫俊杰曾公开表示,如果重新选择,应该让模型第一天就开源。所有模型的“保质期”都不到一年,与其强调短期变现,不如争夺生态。正如OpenAI的核心能力已经不是模型,而是ChatGPT的品牌与心智。

这意味着,后发厂商正在复刻当年安卓追赶苹果的故事,唯有坚守开放,才有持续增长空间。

MiniMax们的开源纠结

抛开开源的概念争论,站在商业视角来看,MiniMax收紧开源协议,更多是无奈之举。拥有云+AI布局的互联网大厂,与无云业务的独立大模型厂商,其开源逻辑从一开始就不同。

今年1月,在腾讯云合作伙伴大会上,腾讯云副总裁吴奇胜对大模型行业的判断是,AI的上半场,主要在卖资源,靠销售稀缺的GPU算力实现变现,这种方式简单粗暴,并未深入到行业应用中去。

这正是谷歌、阿里、腾讯等大厂开源大模型的逻辑。对大厂而言,大模型是一套复合商业模型的流量入口。

阿里巴巴董事局主席在迪拜世界政府高峰会上的表述:

“我们的千问大模型是开源的,同时也经营云计算业务。随着用户在我们的基础设施上进行模型训练、开发与推理,我们得以实现商业变现。”

具体来说,阿里的Qwen系列模型凭借全量开源策略,在全球吸引海量开发者与企业使用,在市场构筑庞大的生态系统。而企业对Qwen的训练、微调、推理都必须消耗海量计算资源,同时产生数据存储、数据分析、数据安全等多维度需求。

阿里云则是这些需求的最佳承接者,其不仅能对算力集群进行推理优化,同时能提供模型微调、数据保护等增值服务,最终凭借技术优势将客户锁在云端,促成收入增长。

而企业想要迁移云服务供应商,则必须重写模型逻辑,重新迁移数据并匹配安全策略。在高昂迁移成本下,借开源模型“捕获”客户,意味着云业务能拿到其后续开发工具、数据、API调用等全维度的商业需求。

中小大模型厂商则没有这样的故事可讲。

在接受《每日经济新闻》采访时,智谱董事长刘德兵表示,智谱在开源后商业收入反而快速增加,原因是企业老板只有对开源模型有深入了解,才会认可技术,推进合作。

相较大厂自建“水电”的重资产业务模式,中小厂商每年都要花费大量资金用于租赁算力训练模型。其商业模式,也完全围绕模型本身来展开。这让企业必须放弃纯闭源路线——只有打出市场声量,独立厂商才在大厂面前有生存空间。

根据财报定义,MiniMax的收入结构基本可以划分为B、C两端。前者收入来源于M系列模型token调用计费及订阅付费,企业级解决方案等;后者包括海螺AI、Talkie、星野、MiniMax Agent等多模态模型产品,通过会员订阅、虚拟商品售卖等方式变现。

二者区别在于,C端产品收入规模更大,但面向的是资金规模、付费意愿并不强的普通用户,2025年毛利率约为4.7%;B端业务毛利率显著更高,同期水平约为70%。

随着智能体浪潮席卷市场,MiniMax正在从C端为主转向BC兼顾。在今年3月召开的年度财报电话会议上,MiniMax CEO闫俊杰表示,公司的价值,由智能密度乘以Token吞吐量决定。

换句话说,与全面组织改革追逐Token经济的阿里近似,MiniMax同样不愿错失API红利带来的高增长、高毛利商业价值。

公开数据显示,2026年2月,M2系列文本模型的平均单日Token消耗量已较2025年12月增长6倍以上,其中来自Coding Plan的Token消耗量增长超过10倍。未来,借C端数据反哺训练,将验证后能力B端变现,将成为MiniMax的核心增长方向。

从表面看,MiniMax收紧开源协议背刺社区,但最终目的仍然是维护API服务这条核心变现渠道,用一道产品防火墙筛选商业伙伴,在产品破圈与商业变现之间,选一条折中方案,以确保旗舰模型的社区口碑。

在智谱GLM-5.1、阿里Qwen3.5-Omni集体闭源的背景下,国产大模型行业正走上岔路口:究竟是开源换声量,还是闭源换利润?

作为独立厂商,必须不断试错寻找答案。只是对于AI企业而言,模型的竞争力永远是第一位的事情。

毕竟此前智谱刘德兵也曾表示:AI化是未来100年的事,相较直接闭源变现,坚持开放培养行业,或许是更重要的工作。但从当下的动作看,也开始向这Anthropic的闭源路线靠拢。

(来源:钛媒体)



用户登录