杨植麟主持、罗福莉张鹏抛干货,这场“龙虾局”把AI未来聊透了
作者 | 陈骏达
编辑 | 李水青
智东西3月27日报道,今天,在中关村论坛上,智谱CEO张鹏、月之暗面CEO杨植麟(担任主持)、小米MiMo大模型负责人罗福莉、无问芯穹CEO夏立雪和香港大学助理教授黄超罕见同台,进行了一场围绕开源大模型与智能体未来走向的深度对话。
这场对话以当下最火的OpenClaw切入,几位嘉宾一致认为,智能体让大模型真正开始“干活”了。OpenClaw可扩展大模型的能力边界,但也对模型提出了更高要求,智谱正研究长程规划、自我调试等能力,而罗福莉的团队更关注通过架构创新把成本降下来、速度提上去,甚至实现模型自进化。
基础设施也得跟上智能体的节奏。夏立雪认为现在的算力系统和软件架构还是给人用的,不是给智能体用的,其实是用人的操作能力限制了Agent的发挥空间。因此,我们需要打造Agentic Infra。
在多位嘉宾眼中,开源是推动大模型与智能体发展的核心动力之一。香港大学助理教授黄超便认为,开源生态的繁荣是智能体从“玩一玩”走向真正“打工人”的关键,只有通过社区共建,才能让软件、数据和技术全面转向智能体原生形态,最终形成可持续的全球AI生态。
此外,几位嘉宾还就大模型涨价、token用量爆发、AI未来12个月的关键词等话题,展开讨论。以下是这场圆桌论坛的核心观点:
1、张鹏:模型变大后推理成本也会相应提高,近期智谱的涨价策略其实是回归到正常的商业价值上了,长期低价竞争不利于行业发展。
2、张鹏:智能体等新技术的爆发让token用量增长了10倍,但实际需求可能增长100倍,仍有大量需求未被满足,因此算力仍然是未来12个月内的关键问题。
3、罗福莉:从基座大模型厂商的视角来看,OpenClaw保证了基础大模型的下限,拉高了上限。国产开源模型+OpenClaw的任务完成度已经非常接近Claude。
4、罗福莉:DeepSeek给国内大模型厂商带来了勇气和信心。一些看似是“为了效率妥协”的模型结构创新引发了真正的变革,让业界在算力一定的情况下发挥出最高的智能水平。
5、罗福莉:接下来一年AGI历程中最重要的事情是“自进化”。自进化让大模型像顶尖科学家一样去探索,是唯一能“创造新东西”的地方。小米已经借助Claude Code+顶尖模型,将研究效率提升10倍。
6、夏立雪:当AGI时代到来时,基础设施本身都应该是智能体,自主管理整个基础设施,根据AI客户的需求去迭代基础设施,实现自我进化、自我迭代。
7、夏立雪:OpenClaw引爆了token用量。如今的token消耗速度,就像当年3G时代手机流量刚起步时,每个月只有100M额度的那种感觉。
8、黄超:未来很多软件都不是面向人类的,软件、数据和技术都会编程Agent-Native的形态,人类未来可能只需要使用那些“让自己快乐的GUI”。
以下是这场圆桌论坛的完整实录:
一、OpenClaw就是“脚手架”,大模型token消耗仍处于3G时代
杨植麟:很荣幸今天能邀请到各位重磅嘉宾,几位嘉宾来自模型层、算力层再到agent层。今天最主要的关键词是开源,然后还有agent。
第一个问题来谈谈现在最流行的OpenClaw。大家日常使用OpenClaw或者类似的产品有什么觉得最有想象力或者印象深刻的点?从技术的角度来看,如何看待今天OpenClaw和相关的Agent的演进。
张鹏:很早我就开始自己玩OpenClaw,当时还叫Clawbot。我自己动手来折腾,毕竟也是程序员出身,玩这些东西还是有一些自己的体验。
我觉得OpenClaw给大家带来的最大突破点,或者说新鲜感就在于,它不再是程序员或极客们的专利。普通人也可以比较方便地使用顶尖模型的能力,尤其是在编程和智能体方面的能力。
所以我到现在为止,跟大家在交流的过程当中,我更愿意把OpenClaw称作“脚手架”。它提供的是一种可能性,在模型的基础之上搭起了一个很牢固、很方便,但是又很灵活的脚手架。大家可以按照自己的意愿,去使用很多底层模型提供的新奇功能。
原来自己的想法可能会受限于不会写代码,或者没有掌握其他的相关技能,今天有了OpenClaw,终于可以通过很简单的交流就把它完成。
OpenClaw给我带来非常大的冲击,或者说让我重新认识了这件事。
夏立雪:其实我最开始用OpenClaw的时候是不太适应的,因为我习惯于跟大模型聊天的交流方式,使用后我感觉OpenClaw反应好慢。
但后来我意识到一个问题,就是它和之前的聊天机器人有一个很大的不同,本质是一个能帮我完成大型任务的“人”。我开始给它提交更复杂的任务,就发现其实它能够做的很好。
这件事情给我带来很大的感触。模型一开始按照token去聊天,到现在能够变成一个agent,变成一个龙虾,能够帮你去完成任务。这件事对AI的整体想象力空间带来很大的提升。
同时,它对于整个系统的能力的要求也变得很高。这也是为什么我一开始用OpenClaw,会觉得它有点卡。作为基础设施层的厂商,我看到的是OpenClaw对于AI背后的大型系统和生态都带来了更多的机遇和挑战。
我们现在所有能够用到的资源,想要支撑起这样一个快速增长的时代是不够的。比如说就拿我们公司来说,我们公司从一月底开始,基本上每两周token用量就翻一番,到现在基本上涨了10倍。
上次见到这个速度,还是当年用3G手机消耗流量的时候。我有种感觉,现在的token用量,就像当年每个月只有100M手机流量的那个时代。
这种情况下,我们所有的资源都需要进行更好的优化,进行更好的整合。让每一个人,不仅仅在AI领域,而是在整个社会中的每一个人都能够去把OpenClaw的AI能力用起来。
作为基础设施的玩家,我对这个时代是非常激动、深有感触的。我也认为这里边有很多的优化空间是我们仍然应该去探索,应该去尝试的。
二、OpenClaw拉高国产模型上限,交互模式突破意义重大
罗福莉:我自己是把OpenClaw当做agent框架演进过程中,一个极具革命性和颠覆性的事件来看待的。
其实我身边所有在进行非常深度coding的人,他们的第一选择还是Claude Code。但是,我相信用OpenClaw的人会感受到,它在Agent框架上的很多设计是领先于Claude Code的。最近Claude Code有很多更新其实都是在向OpenClaw去靠近。
我自己使用OpenClaw时的感受是,这个框架给我自己带来更多是想象力的随时随地的扩展。Claude Code最开始只能在我的桌面上去延展我的创意,但是OpenClaw可以随时随地去延展我的创意。
OpenClaw带来的核心价值主要有两点。第一点是它开源。开源这件事,非常有利于整个社区深度参与进来,重视并推动这个框架的演进,这是一个很重要的前置条件。
像OpenClaw这样的AI框架,我觉得一个很大的价值在于,它把国内那些水平虽然接近闭源模型、但还没完全追上的模型的上限拉到了很高。
在绝大多数场景下,你会发现它(国产开源模型+OpenClaw)的任务完成度已经非常接近Claude的最新模型。同时,它又很好地把下限保证了——通过一套Harness系统,或者说借助它的Skills体系等多方面的设计,保障了任务的完整度和准确率。
总结一下,从基座大模型厂商的开发者角度来看,OpenClaw保证了基础大模型的下限,拉高了上限。
此外,我认为它给整个社区带来的另一个价值是,它点燃了大家的认知,让大家发现在大模型之外,Agent这一层其实蕴藏着非常大的想象空间。
我最近也观察到,社区里除了研究员之外,越来越多的人开始参与到AGI的变革中来,更多人开始接触像Harness、Scaffold这样更强大的Agent框架。这些人某种程度上是在用这些工具替代自己的一部分工作,同时也是在释放自己的时间,去投入到更有想象力的事情上。
黄超:我觉得首先从交互模式来讲,OpenClaw这次之所以能火,第一个原因可能是它给了一种更有“活人感”的体验。其实我们做Agent也有一两年了,但之前像Cursor、Claude Code这些Agent,给人的感觉更多是一种“工具感”。而OpenClaw第一次以“即时通讯软件嵌入”的方式,让人更有一种接近心目中“个人贾维斯”的感觉。我觉得这可能是交互模式上的一个突破。
另外一点,它给整个社区带来的启发是:像Agent Loop这种简单但高效的框架,再次被证明是可行的。同时,它也让我们重新思考一个问题:我们到底是需要一个全能型的、能做所有事情的超级智能体,还是需要一个更好的“小管家”,像一个轻量级的操作系统或脚手架?
OpenClaw带来的思路是,通过这样一个“小系统”或者说“龙虾操作系统”和它的生态,让大家真正有“玩起来”的心态,进而撬动整个生态里的所有工具。
随着Skills、Harness这类能力的出现,越来越多的人可以去设计面向OpenClaw这类系统的应用,去赋能各行各业。我觉得这一点天然就跟整个开源生态结合得非常紧密。在我看来,这两点是我们获得的最大启发。
三、GLM新模型专为“干活”打造,涨价是对正常商业价值的回归
杨植麟:想问一下张鹏。最近看到智谱发布了新的GLM-5 Turbo模型,我理解在Agent能力上做了很大的增强。能不能给大家介绍一下这个新模型和其他模型的不同之处?另外我们也观察到有提价的策略,这反映了什么样的市场信号?
张鹏:这是个很好的问题。前两天我们确实紧急更新了一波,这其实是我们整个发展路标中的一个阶段,只是提前把它放了出来。
最主要的目的,是从原来的“简单对话”转向“真正干活”——这也是大家最近普遍感受到的:大模型不再只是能聊天,而是真的能帮人干活了。
但“干活”背后隐含的能力要求非常高。模型需要自己去做长程的任务规划、不断试错、压缩上下文、调试,还可能要处理多模态信息。所以它对模型能力的要求,和传统面向对话的通用模型其实不太一样。GLM-5 Turbo就是在这些方面做了专门加强,尤其是你提到的——让它干活、跑上七十二小时,怎么能够不停地loop,这里边我们做了很多工作。
另外大家也很关注token消耗的问题。让一个聪明的模型去干复杂任务,token的消耗量是巨大的。普通人可能感知不深,但看账单的时候会发现钱掉得特别快。所以我们在这方面也做了优化,在面临复杂任务时,模型能用更高效的token效率去完成。总体上,模型的架构还是多任务协同的通用架构,只是在能力上做了偏向性的加强。
提价这件事其实也很好解释。刚才说了,现在不再是简单地问一个问题就得到一个回答,背后的推理链路非常长。很多任务要通过写代码和底层基础设施打交道,还要不断debug、修正错误,消耗量非常大。完成一个复杂任务需要的token量,可能是原来回答一个简单问题的十倍甚至百倍。
所以价格上需要有一定的提升,模型也变大了,推理成本相应提高了。我们把它回归到正常的商业价值上,因为长期靠低价竞争也不利于整个行业的发展。这也是我们让商业化能形成一个良性闭环,持续优化模型能力,给大家提供更好服务的。
四、打造更高效token工厂,基础设施本身也应该是Agent
杨植麟:现在开源模型越来越多,也开始形成生态,各种模型可以在不同的算力平台上给用户提供更多价值。随着 token用量的爆发,大模型也正在从训练时代走向推理时代。想请教一下立雪,从基础设施的层面来看,推理时代对于无问来说意味着什么?
夏立雪:我们是一家诞生在AI时代的基础设施厂商,现在也在为智谱、Kimi、Mimo等提供支持,让大家能把token工厂更高效地用起来。同时我们也在跟很多高校、科研院所合作。
所以我们一直在思考一件事:AGI时代需要什么样的基础设施?以及我们怎么一步步去实现和推演它。我们现在对短期、中期、长期不同阶段需要解决的问题,已经做好了充分准备。
当前最直接的问题,就是大家刚才聊到的——整个Open带起来的token量暴增,对系统效率提出了更高的优化需求。包括价格的调整,其实也是在这个需求下的一种应对方式。
我们一直是通过软硬件打通的方式来布局和解决的。比如我们接入了几乎所有种类的计算芯片,把国内十几种不同的芯片和几十个不同的算力集群统一连接起来。这样能解决AI系统里算力资源紧缺的问题,资源不足时,最好的办法就是先把能用上的资源都用起来,然后让每一个算力都用在刀刃上,发挥出最大的转化效率。
所以在这个阶段,我们要解决的就是怎么打造一个更高效的token工厂。这里边我们做了很多优化,包括让模型和硬件上的显存等各种资源做最优适配,也在看最新的模型结构和硬件结构之间能不能产生更深的化学反应。但解决当前的效率问题,其实只是打造了一个标准化的token工厂。
面向Agent时代,我们认为这还不够。因为Agent更像一个人,可以交给它一个任务。我坚定地认为,当前很多云计算时代的基础设施,是为服务一个程序、服务人类工程师设计的,而不是为AI设计的。这相当于我们做了一个基础设施,上面是给人用的接口,再在上面包一层去接入Agent,这种方式其实是用人的操作能力限制了Agent的发挥空间。
举个例子,Agent能做到毫秒级别去思考和发起任务,但像K8s(kubernetes)这类底层能力,其实并没有为此做好准备,因为人类发起任务大概是分钟级的。所以我们需要更进一步的能力,我们把它叫“Agentic Infra”,也就是“智慧化的token工厂”,这是无问芯穹在做的事情。
更长远地看,真正AGI时代到来时,我们认为连基础设施本身都应该是智能体。我们打造的这套工厂,也应该是能自我进化、自我迭代的,能形成一个自主的组织。它相当于有一个CEO,这个CEO本身就是一个Agent,可能是OpenClaw,去管理整个基础设施,然后根据AI客户的需求自己去提需求、迭代基础设施。这样AI和AI之间才能更好地耦合。我们也在做一些探索,比如让Agent之间更好地通信、做Cache to Cache这样的能力。
所以我们一直在思考的是,基础设施和AI的发展不应该是一个隔离的状态——我接到需求就去实现,而是应该产生非常丰富的化学反应。这才是真正意义上的软硬协同、算法和基础设施的协同,也是无问芯穹一直想实现的使命。谢谢。
五、“为效率妥协”的创新也有意义,DeepSeek给国内团队带来勇气和信心
杨植麟:接下来想问一下福莉。小米最近通过发布新模型、开源背后的技术,对社区做出了很大的贡献。想问你,小米在做大模型方面,你觉得有什么独特的优势?
罗福莉:我觉得可以先抛开小米有什么独特优势这个话题,我更想聊一聊中国做大模型的团队整体上的一个优势。我觉得这个话题有更广泛的价值。
大概两年前,中国的基座模型团队已经开始了非常好的突破——我们在有限的算力、尤其是在一些NVLink互联带宽受限的算力条件下,怎么去突破这些低端算力的限制,做一些看似是“为了效率妥协”的模型结构创新,比如DeepSeek V2、V3系列,以及MoE、MLA等等。
但后来我们看到,由这些创新引发的是一个变革:在算力一定的情况下,怎么发挥出最高的智能水平。这是DeepSeek给国内所有基座模型团队带来的勇气和信心。虽然今天我们的国产芯片,尤其是推理芯片,以及训练芯片,已经不再受这种限制,但正是在这种限制下,催生了我们对更高训练效率、更低推理成本的模型结构的新探索。
就像最近出现的Hybrid Sparse、Linear Attention这类结构,比如DeepSeek的NSA、Kimi 的KSA,小米也有面向下一代结构的HySparse。这些都是区别于MoE这一代结构的、面向Agent时代去做的模型结构创新。
我为什么觉得结构创新如此重要?其实大家如果真正地去用OpenClaw,会发现它越用越好用、越用越聪明。其中一个前提是推理的上下文长度。长上下文是一个我们聊了很久的话题,但现在真正有模型能在长上下文下表现很好、性能强劲、推理成本很低吗?
其实很多模型不是做不到1M或10M的上下文,而是因为推理1M、10M的成本太贵了、速度太慢了。只有把成本降下来、速度提上去,才能把真正高生产力价值的任务交给模型,才能在这种长上下文下完成更高复杂度的任务,甚至实现模型的自迭代。
所谓模型的自迭代,就是它可以在一个复杂环境里,依靠超长的上下文完成对自我的进化。这种进化可能是对Agent框架本身的,也可能是对模型参数本身的——因为我认为上下文本身其实就是对参数的一种进化。所以怎么实现一个长上下文的架构,怎么在推理侧做到长上下文高效推理,是一个全方位的竞争。
除了我刚刚提到的预训练阶段做好long-context-efficient的架构——这大概是我们一年前就开始探索的问题。现在真正要做到在长程任务上的稳定性和高上限的效果,是我们在后训练阶段正在迭代的创新范式。
我们在想怎么构造更有效的学习算法,怎么采集到真实环境下、在1M、10M、100M上下文里真正具有长期依赖关系的文本,以及结合复杂环境产生的轨迹数据。这是我们后训练正在做的事情。
但更长期来看,由于大模型本身的飞速进步,加上Agent框架的加持,就像立雪说的,推理需求在过去一段时间已经有近十倍的增长。那么今年整个token用量的增长会不会到100倍?
这里边又进入另一个维度的竞争——算力,或者说推理芯片,甚至再往下到能源。所以我觉得,如果大家一起思考这个问题,我可能会从大家身上学到更多。谢谢。
六、Agent有三大关键模块,多Agent爆发将带来冲击
杨植麟:非常有洞察的分享。下面想问一下黄超,你开发过像Nanobot这样很有影响力的Agent项目,也有很多社区的粉丝。想问你从Agent的Harness或者应用层面来看,接下来有哪些技术方向是你觉得比较重要、值得大家关注的?
黄超:我觉得如果把Agent的技术抽象出来,关键就是Planning、Memory和Tool Use这几个模块。
先说Planning。现在的问题主要是在长程任务或者非常复杂的上下文中,比如500步甚至更长的步数,很多模型不一定能做很好的规划。我觉得本质上是模型可能不具备这类隐性知识,尤其是在一些复杂的垂直领域。所以未来可能需要把各种复杂任务的知识固化到模型里,这可能是一个方向。
当然,Skill、Harness在某种程度上也在缓解Planning带来的错误,因为它提供了高质量的Skill,本质上也是在引导模型去完成一些比较难的任务。
再说Memory。Memory给人的感觉是,它好像总是存在信息压缩不准确、检索不准的问题。特别是在长程任务和复杂场景下,Memory的压力会暴增。现在像OpenClaw这类项目,大家用的其实都是最简单的文件系统式的 Markdown格式的Memory,通过共享文件来做。未来Memory可能会走向分层设计,也需要让它变得更通用。
老实讲,现在的Memory机制很难做到通用——因为Coding场景、Deep Research场景、多模态场景,它们的数据模态差别很大,怎么对这些Memory做好的检索和索引,同时又保持高效,这永远是一个权衡。
另外,现在OpenClaw让大家创建Agent的门槛大幅降低之后,未来可能不止一个“龙虾”。我看到Kimi也有Agent Swarm这样的机制出来,未来每个人可能会有“一群龙虾”。
相比于单个龙虾,一群龙虾带来的上下文暴增是可以想象的,这对Memory的压力会非常大。现在其实还没有一套很好的机制去管理这种“一群龙虾”带来的上下文,尤其是对复杂Coding、科研发现这类场景,不管是模型还是整个Agent架构,压力都很大。
再说Tool Use,也就是Skill这块。Skill现在存在的问题,其实和当初MCP的问题类似——MCP当时有质量不保障、安全风险等问题。现在Skill也一样,看似有很多Skill,但高质量的很少,低质量的Skill会影响Agent完成任务的准确度。另外还有恶意注入的问题。所以从Tool Use来看,可能需要靠社区把整个Skill生态做得更好,甚至让Skill能在执行过程中自我进化出新的Skill。
总的来说,从Planning、Memory到Tool Use,这些是当下Agent存在的一些痛点,也是未来可能的方向。
七、未来12个月关键词:生态、可持续token、自进化与算力
杨植麟:可以看到两位嘉宾从不同视角讨论了一个共同的问题——随着任务复杂度增加,上下文会暴涨。从模型层面可以提升原生上下文长度,从Agent Harness层面,像Planning、Memory、Multi-Agent这样的机制,也能在特定模型能力下支持更复杂的任务。我觉得这两个方向接下来会产生更多化学反应,进一步提升任务的完成能力。
最后我们来一个开放式的展望。请各位用一个词来描述接下来12个月大模型发展的趋势以及你的期望。这次先从黄超开始。
黄超:12个月在AI这个领域看起来好遥远,都不知道12个月之后会发展成什么样。
杨植麟:本来这里写的是五年,我改掉了。
黄超:对,哈哈。我想到的一个词是“生态”。现在OpenClaw让大家很活跃,但未来Agent真的要成为“打工人”,而不只是大家玩一玩、图个新鲜感。未来应该让它真正沉淀下来,成为搬砖的工具、成为真正的coworker。这需要整个生态的努力,尤其是开源,把技术探索和模型技术都开源出来之后,需要整个社区一起共建——不管是模型的迭代,还是Skill平台的迭代,还有各种工具,都需要更好地面向龙虾去创造生态。
一个比较明显的趋势是,未来的软件还会是给人用的吗?我相信未来很多软件可能都不一定是面向人类的——因为人类需要的是GUI,而未来可能是面向Agent原生的使用。有趣的是,人可能只去用那些让自己快乐的GUI。而现在整个生态又从GUI、MCP转到了CLI的模式。这就需要生态把软件系统、数据、各种技术都变成Agent Native的形态,这样整个发展才会更加丰富。
罗福莉:把问题缩小到一年,我觉得非常有意义。如果五年的话,从我心目中AGI的定义来看,我觉得已经实现了。所以如果用一句话描述接下来一年AGI历程里最关键的事情,我认为是“自进化”。
这个词听起来有点玄幻,过去一年大家也多次提到。但我最近对它有更深的体会,或者说对“自进化”怎么做,有了更务实、更可行的方案。原因在于,有了强大的模型之后,我们在Chat范式下根本没有发挥出预训练模型的上限,而Agent框架把这个上限激活了。当我们让模型执行更长时间的任务时,发现它可以自己去学习和进化。
一个简单的尝试是:在现有的Agent框架里给它加上一个可验证的条件限制,再给它设一个Loop,让模型不停地去迭代优化目标,就会发现它能持续拿出更好的方案。这种自进化现在其实已经能跑一两天了,当然跟任务难度有关。比如在一些科学研究上——探索更好的模型结构,因为模型结构有评估标准,比如更低的PPL——在这种确定性的任务上,我们发现它已经能自主优化和执行两三天了。
所以从我的角度看,自进化是唯一能“创造新东西”的地方。它不是替代我们现有的人的生产力,而是像顶尖科学家一样,去探索世界上还没有的东西。一年前我会觉得这个时间线要拉到三到五年,但最近我觉得确实应该缩小到一到两年。可能很快我们就能用大模型叠加一个强大的自进化Agent框架,实现对科学研究至少指数级的加速。
最近我已经发现,我们组里做大模型研究的同学,他们的workflow是高度不确定、高度创造性的,但借助Claude Code加上顶尖模型,我们的研究效率已经提升了近十倍。我很期待这种范式辐射到更广泛的学科和领域,所以我觉得“自进化”非常重要。
夏立雪:我的关键词是“可持续token”。我看到整个AI的发展还在一个长期持续的过程中,我们也希望它有长久的生命力。从基础设施的角度看,一个很大的问题是资源终究是有限的。
就像当年讲可持续发展一样,我们作为一个 token工厂,能否持续、稳定、大规模地提供token,让顶尖模型真正能为更多的下游服务,是我们看到的一个很重要的问题。
我们需要把视角放宽到整个生态——从能源到算力,再到token,最终到应用,形成可持续的经济化迭代。我们不仅要把国内的各种算力用起来,也在把这些能力输出到海外,让全球的资源都能打通和整合。
我也觉得“可持续”其实是在把中国特色的token经济学做起来。过去我们讲Made in China,把中国低价的制造能力变成好的商品输出到全球。
现在我们要做的是“AI Made in China”——把中国在能源等方面的优势,通过token工厂可持续地转化成优质的token,输出到全球,成为世界的token工厂。这是我今年想要看到的、中国给世界的人工智能带来的价值。
张鹏:我就简短一点。大家都在仰望星空,我就落地一点。我的关键词是“算力”。
刚才也说了,所有技术、智能体框架让大家创造力和效率提升了十倍,但前提是大家能真正用得起来。你不能一个问题提出去,让它思考半天也不给答案,那肯定不行。也因为这样,很多研究的进展、很多想做的事情都会受阻。
前两年我记得有位院士在中关村论坛上说了一句话:“没卡没感情,谈卡伤感情。”我觉得今天又到了这个地步,但情况又不一样了。现在我们进入了推理阶段,需求真的在爆发——十倍、百倍地增长。刚才你说用量涨了十倍,那其实需求可能是一百倍呢?还有大量的需求没被满足,怎么办?我们大家可能一起来想想办法。
(来源:新浪科技)





