由豆包付费想到,AI到底会长成一门什么生意
文 | 吴怼怼
免费获客阶段结束,AI应用开始进入“成本分层+用户分层+商业化验证”阶段。
最近,豆包App Store页面出现了付费订阅信息:免费基础版之外,可能会有68元/月标准版、200元/月加强版、500元/月专业版,年费最高5088元。
![]()
豆包回应是免费服务会继续保留,增值服务方案仍在测试中,当前产品内还没有正式展示相关权益。
这件事可以从几个层面看。
01这和成本有关,尤其是“重度使用者成本”
豆包这种产品最麻烦的地方在于:用户越喜欢用,平台成本越高。
一个普通用户偶尔问几句话,成本可能可控。
但如果用户开始做这些事:
写长文、生成PPT、做数据分析、深度研究、图片生成、视频生成、语音实时对话、Agent多步执行任务。
那就完全不是一个成本等级了。
豆包Mac版主打的能力除了聊天,还有“搜索、P图、写作、翻译、PPT、数据分析”,并且强调图片与视频生成、深度研究、会议纪要、文档表格处理等一站式工作流。这些功能本质上都比普通聊天更吃token、更吃推理、更吃多模态算力。
![]()
所以豆包收费,很大概率不是因为“普通聊天亏得受不了了”,而是因为:
高价值能力和重度用户,不能再无限免费供应。
免费版可以继续存在,用来做入口、日活、品牌心智;但真正消耗大的能力,要通过会员、额度、优先级、专业版来分层。
02AI 的商业化难点,是“收入固定,但成本浮动”
订阅制有一个天然矛盾:
用户每月付的钱是固定的,但用户消耗的token不是固定的。
这和奈飞、腾讯视频、爱奇艺还不一样。视频平台一部剧拍完,用户多看几次,边际成本相对有限。AI不一样,用户每一次深度对话、每一次生成视频、每一次长上下文分析,都要重新占用推理资源。
传统软件模式以及奈飞模式更像:
研发一次→复制无限次→多卖一份的边际成本接近0
但大模型服务更像:
研发模型一次→每次调用都要算力→用户越多、用得越深,推理成本越高。
OpenAI、Azure OpenAI等API都是按token收费,本质上就说明了这一点:输入token、输出token、长上下文、缓存输入都有不同价格,输出token通常明显更贵。
![]()
OpenAI官方定价页里,GPT-5.5短上下文是输入每百万token 2.5美元、输出每百万token 15美元,缓存输入则低很多。
这和卖Office、卖Photoshop、卖操作系统不是一类经济模型。
字节自己的火山引擎也能看到类似逻辑:豆包模型面向开发者的价格同样按百万tokens计费,例如Doubao-Seed-2.0-pro显示为3.2元起/百万输入tokens、16元起/百万输出tokens。
这说明一个本质问题:
AI产品看起来是会员订阅,后台却是按量消耗。但它也不完全等同于餐厅。
更准确的说法应该是:
AI 是“软件公司 + 云计算公司 + 电力密集型实业公司”的混合体。
![]()
如果一个用户每月付68元,但疯狂生成PPT、视频、长报告,成本可能吃掉大部分收入。
如果一个用户每月付500元,但主要用来做高价值工作,消耗可控,那就是好生意。
所以AI订阅本质是在做一件事:
把不可控的算力成本,转化成可预测的收入结构。
03从“用户规模竞争”转向“ARPU 竞争”
之前国内AI应用竞争,很大程度上是免费抢用户。
豆包为什么能做得大?除了产品有优势,当然还因为字节有流量、产品能力强、免费门槛低。豆包是中国使用最多的AI聊天应用,QuestMobile数据显示其周活跃用户约1.55亿,DeepSeek约8160万;同时阿里也通过大额补贴拉动Qwen用户增长。
但免费模式有一个问题:
用户规模越大,成本压力越真实。
尤其是中国AI产品现在还有价格战。DeepSeek把模型成本预期打得很低,阿里、字节、腾讯、百度又都不愿意丢入口。于是消费端AI很容易陷入一种尴尬:
- 用户觉得AI应该免费;
- 平台知道AI不可能无限免费;
- 投资人想看增长;
- 公司内部想看商业闭环。
豆包推出付费版,意味着它想测试一个问题:
中国用户到底愿不愿意为AI工作流付钱?
不是为“聊天”付钱,而是为“帮我省时间、做PPT、写报告、做研究、处理数据、生成视频”付钱。
这个差别很关键。
![]()
用户很难为“你陪我聊天”每月付500元。
但如果它真能帮一个内容从业者、销售、老师、学生、运营、咨询顾问每天省1—2小时,那68元、200元、500元的接受度就完全不同。
04这也说明:AI 免费版会保留,但免费版会越来越“有限”
未来国内AI 原生应用大概率不是一刀切收费,而是四层结构:
![]()
第一层:免费版
用于获客、建立使用习惯、保持市场份额。普通聊天、基础问答、轻量搜索会继续免费。
第二层:低价会员
给普通高频用户,比如更高额度、更快速度、更少排队、更好的模型。
第三层:专业版
给内容创作者、职场用户、学生、程序员、研究人员,卖的是PPT、数据分析、深度研究、文档处理、代码、长上下文。
第四层:企业/API/Agent服务
按量计费,或者套餐+超额计费。这里才是真正能跑商业模型的部分。
豆包现在传出的68、200、500三档,本质就是在试探这个分层。
免费版解决“用户规模”;
标准版解决“轻度付费”;
加强版和专业版解决“重度用户成本回收”。
ChatGPT、Claude、Gemini、Kimi、通义、智谱、豆包,都已经或者即将走向类似结构。区别只在于:谁的免费版最强,谁的付费权益最有感,谁的成本控制最好。
05为什么AI 订阅比传统 SaaS 难?
AI多一个用户、多一次对话、多一次长文总结、多一次Agent执行任务,就要多消耗GPU推理、电力、显存、带宽、存储和工程运维。
所以AI应用公司最核心的问题不是:
有没有用户?
而是:
用户越多,是越赚钱,还是越烧钱?
这点和传统SaaS很不一样。传统SaaS一旦系统搭好,新增客户的毛利通常很高;但AI产品如果用户特别爱用,反而可能带来更高推理成本。现在市场担心Big Tech的AI投入回报,本质也是这个问题。Alphabet、Microsoft、Meta、Amazon等大厂今年AI相关投入规模巨大,投资者开始更关注这些AI支出什么时候能带来足够回报。
但是AI订阅当然也不能简单类比为餐厅,餐厅很难让“一碗面”的成本每年下降80%。
![]()
但AI可以。
因为模型推理成本会被几件事不断压低:
- 第一,芯片变强。
- 第二,模型变小、蒸馏、量化、MoE路由更精细。
- 第三,缓存、批处理、上下文复用会降低重复计算成本。
- 第四,很多任务不需要最强模型,可以用小模型完成。
- 第五,企业会从“盲目堆token”转向“每个业务结果消耗更少token”。
所以AI的边际成本不是0,但它也不是固定不变的食材成本。
它更像早期云计算:刚开始很贵,但规模、硬件和软件优化会持续压成本。
这也是为什么OpenAI定价里“缓存输入”比普通输入便宜很多。缓存机制存在,本身就说明AI服务商在努力把重复计算变成更低成本的类软件化环节。
这就导致AI公司需要同时回答三个问题:
第一,用户愿意付多少钱?
这是收入端。
第二,用户每月会消耗多少token?
这是成本端。
第三,模型成本下降速度能不能快过使用量增长?
这是利润率端。
![]()
如果答案是:
用户愿意付200元,但每月消耗150元成本,那这个生意很一般。
如果答案是:用户愿意付200元;,成本只有20元,而且随着模型优化还能降到10元。
那AI 应用又重新接近一个好软件生意。
所以AI商业模式真正的核心指标不是DAU,也不是下载量,而是:
每个付费用户的收入/每个付费用户的推理成本。
也就是AI版的单位经济模型。
06这会反过来影响AI 行情
联系到股市,这件事其实很重要。
市场现在交易AI,第一阶段看的是:
算力需求会不会爆发。
所以英伟达、台积电、博通、存储、电力设备、数据中心涨。
![]()
第二阶段市场会问:
AI应用有没有用户。
所以ChatGPT、豆包、Kimi、Qwen、Copilot、Gemini的用户规模会被关注。
第三阶段,也就是接下来最关键的阶段,市场会问:
这些用户能不能付费?付费之后能不能赚钱?
豆包传出收费,其实就是第三阶段的开始。
如果未来看到这些信号,AI行情会更健康:
- 付费转化率不错;
- 用户没有因为收费大规模流失;
- 高价专业版有人买单;
- 企业客户开始规模化采购;
- 推理成本持续下降;
- AI功能带来真实提价能力。
但如果看到相反信号:
- 用户只愿意免费用;付费版口碑差;
- 平台不断降价促销;
- 高频用户把成本打爆;
- AI应用收入增长快但毛利率不好;
那市场就会开始怀疑:
AI应用层是不是一个好生意?
这会进一步传导到上游。因为如果应用层赚不到钱,云厂商和模型厂商就会被问:你们为什么还要持续加大capex?
07不同AI 公司,经济模型完全不一样
还有一个问题是,不能把所有AI公司混在一起看。
![]()
这些是卖铲子的。
别人用AI越多,它们越赚钱。
它们不用直接承担终端用户token成本,反而吃的是AI推理和训练扩张带来的资本开支。
它们介于中间。
一方面,AI带来云收入增长;另一方面,它们自己要承担巨额capex、折旧、电力和数据中心成本。Reuters Breakingviews提到,大厂AI开支正在大幅扩张,但市场也越来越关心这些投入能否形成清晰回报。
所以云厂商的问题是:
AI云收入增长,能不能覆盖数据中心、GPU、折旧和电力成本?
用户用得越多,成本越高。
如果是固定订阅制,比如每月收一个固定价格,但用户疯狂使用,那毛利率会被吃掉。
所以AI应用最理想的状态不是“用户无限聊天”,而是:
用户愿意高付费,但实际token消耗可控。
比如企业愿意为一个AI销售助手、AI代码助手、AI法务助手每月付30、50、100美元,但它背后的推理成本只有几美元,那就是好生意。
比如微软、Adobe、Salesforce这类公司,如果能在原有软件上加AI功能,提高ARPU,但不让成本失控,它们就能把AI变成提价工具。
08所以AI 最大的估值分歧就在这里
完全不必争论AI有没有用,有没有未来,AI当然是未来。
更深层的问题是:AI到底是高毛利软件,还是重资本实业?
![]()
乐观派认为:
AI成本会快速下降,应用会爆发,ARPU会上升,最后它还是软件式高毛利生意。
悲观派认为:
AI会变成军备竞赛,大家都要买GPU、建数据中心、付电费,但用户未必愿意为每个token付足够高的价格,最后利润被基础设施成本吃掉。
我觉得真相在中间:
基础模型和云基础设施会越来越像重资产行业;真正有分发、有场景、有定价权的AI应用,才有机会重新变成软件生意。
09这也解释了为什么AI 行情可能会分化
第一阶段,市场买的是:
谁和AI沾边,谁涨。
第二阶段,市场会问:
谁能把AI变成收入?
第三阶段,市场会继续问:
谁能把AI收入变成利润和自由现金流?
AI不像传统软件那样“多卖一份几乎零成本”,它每次服务都要消耗算力,所以天然带有餐厅、云计算和实业公司的成本属性。
但AI也不像餐厅那么线性,因为模型优化、缓存、芯片进步、批处理、小模型路由,会让单位成本持续下降。
![]()
所以AI商业模式真正要看的不是“有没有收入”,而是:
每一美元AI 收入背后,需要烧掉多少 GPU、电力和 token 成本。
这就是接下来市场会反复拷问AI公司的核心问题。
AI的未来,到底有多少利润率。
(来源:钛媒体)
