李开复周志华纵论AI大模型,商汤徐立倡议「打脸时刻」,万字梳理MEET'25大咖激辩,320万观众同见证 | 量子位
李开复周志华纵论AI大模型,商汤徐立倡议「打脸时刻」,万字梳理MEET’25大咖激辩,320万观众同见证
有深度,够前瞻,现场人挤人从众
「Scaling Law」和「打脸时刻」,绝对是2024年科技智能领域的年度关键词。
这是20余位工业界、学术界乃至投资界的顶流大咖,在量子位MEET 2025智能未来大会上反复提及、探讨的话题。

在座无隙地的会场,大牛们的深入讨论当然没有只局限于此——
站在诺贝尔奖对AI青睐有加的2024年年尾,他们回顾技术、产品和商业的发展,也毫无保留地传递对未来的规划、已经洞察到的机遇;有人热心站出来解答了近期热议的困惑,有人坦白曾因技术的放缓有过短暂忧虑,也有人为从业者、爱好者、观望者指明值得一试的方向。
有深度,够前瞻,思考碰撞,激情四溅。
320万+线上观众、1000+现场观众和在场嘉宾一起,见证了干货满满的一天。

△连“站票”也很抢手哟
围绕着「智变千行,慧及百业」这一主题,本次大会嘉宾们畅聊了关于「技术演进时」「无限未来时」「拐点来临时」和「应用正当时」的所见所思所想。
来,跟着量子位真人编辑和ChatGPT、Claude等大模型一起划重点。
技术演进时
李开复:Scaling Law放缓,AI-First应用爆发加速
MEET2024智能未来大会以零一万物首席执行官、创新工场董事长李开复和量子位总编辑李根的深度对话拉开帷幕。
对话中,李开复透露出OpenAI的瓶颈与挑战:GPT-5的训练并非一帆风顺。大规模GPU集群的效率递减、数据与算力瓶颈,让Scaling Law(尺度定律)不再一骑绝尘。OpenAI也面临着算力投入与商业回报的博弈。

在李开复看来,传统Scaling Law的放缓这并不意味着大模型发展遭遇天花板,相反,中国AI 2.0创新者能在里面找到弯道超车的机遇。
首先,AI 2.0已经成为世界各国的“未来之战”,将重塑经济版图和创新格局。中国绝对不能放弃大模型预训练。从国家技术竞争力角度看,掌握了大模型预训练就等于掌握模型能力的上限和安全可控的底线。
其次,当前大模型已“足够好、足够便宜”,中国开发者应抓住应用井喷的黄金窗口期,结合中国巨大的市场需求和落地场景,借鉴移动互联网时代领先世界的工程能力和产品微创新迭代能力,打造“Made in China”的“ChatGPT时刻”。
他提醒AI 2.0创业者不妨先算一笔账:自己的基座大模型能力是否有独特价值?自己是否有预训练技术优势做出性能位居世界第一梯队但又快又便宜的模型?如果自研的模型无法超越开源模型,不妨专注在应用创新上。
在商业策略上,零一万物打造的预训练模型Yi-Lightning不仅在国际权威的“大模型竞技场”LMSYS盲测中创下中国大模型历史最佳成绩,而且推理成本仅为GPT-4o的三十分之一。
零一万物也积极探索AI 应用落地:国内以To B为主,海外侧重To C。以多快好省的方式训出世界第一梯队模型,同时用“又快又好”的大模型为应用开发者赋能,打造健康良性的大模型创新生态。
李开复相信,未来大模型头部玩家更应聚焦AI-First应用端的价值创造,就像过往PC、移动互联网时代的创新发展路径一样,创造最大经济价值的往往是应用层。
智源王仲远:其实Scaling Law一直在AI发展中起作用
北京智源人工智能研究院院长王仲远博士指出,当前人工智能正处于一个新的拐点。
大模型的出现标志着弱人工智能向通用人工智能的转变。尽管目前的大模型能力仍存在不足,但已能看到它对各行各业的深远影响。
他谈到了当下最热门的一个话题:Scaling Law是否撞墙/失效了?

王仲远介绍道,过去六年里,北京智源人工智能研究院建立了一支顶尖的科研团队,在国内最早从事大模型研发,并且从2020年10月开始,就成立了技术攻关团队来持续推动大模型技术研发探索。
至于大模型未来的发展方向,在他看来,除了文本数据,世界上还存在大量的图像、音频、视频等多模态数据。如何激发这些数据中的智能,是未来大模型研究的重要方向。
“最终将出现一个统一的多模态大模型,实现人工智能对世界的感知、理解和推理。”王仲远说。
蚂蚁集团王旭:开源社区为技术方向提供中立而广泛的信息
在蚂蚁集团内部,大模型的应用已经渗透到财务数据分析领域,极大地提高了处理效率和深度。
蚂蚁集团开源技术委员会副主席王旭,站在开源视角进行了演讲分享——毕竟从ChatGPT掀起滔天巨浪开始,大模型的开闭源之争就从未停止。

王旭强调,蚂蚁集团的开源技术增长团队十分重视对开源社区的数据洞察,并以此为蚂蚁的技术架构和技术演进提供参考。
社区数据显示应用的 AI化和AI应用框架都在大量涌现。在应用方向单单是直接的数量提升和加速就已经可以引发显著的变革,比如蚂蚁的金融相关服务和它们背后的开源多智能体框架 agentUniverse。
他提供了一张可参考的折线统计图,其数据显示,在LLaMA模型开源后,相关项目迎来了爆发式增长。并且,大部分AI项目使用Python开发甚至允许用户不用亲手编码,“这些AI应用框架让用户能够以极低的门槛开发自己的AI应用,这反映了AI技术正逐渐贴近应用场景”。
另一个观察是,除了硬件资源的变化,软件基础设施也在经历着微妙的变化。王旭表示,虽然分布式系统的基础架构变化不大,但应用基础设施和场景产生了新的需求。他提道,AI 2.0时代正在形成新一代的LAMP架构,应用会围绕模型展开,这在基础设施的每个环节都引发了深远变化。
最后,王旭鼓励技术从业者根据时代的需求调整软件架构,并演进自己的基础设施。
华为王辉:网络与AI之间,就是Network for AI和AI for Network
会上,华为数据通信产品线NCE数据通信领域总裁王辉围绕《AI大模型使能网络迈向高阶自智》这一话题,站在工业领域和ToB行业的视角开始了他的分享。
他指出,当前各行各业都面临“如何让自己的产品和产业变得更加智能”的问题,且落地过程面临诸多挑战。

在演讲中,王辉把网络与AI的关系总结为两种:
- Network For AI,指如何用网络加速AI训练和推理
- Al For Network,指用AI手段让网络变得更加稳定可靠,助力千行万业的发展
在Network for AI方面,王辉指出网络是支撑AI训练规模演进的关键底座;华为通过实时动态的AI集群网络均衡负载和AI识别预警故障,避免了AI训练中断,同时让AI训练不受跨数据中心、跨地域的限制;为大模型的规模化、分布式训练和推理带来了本质性提升。
在AI for Network领域,王辉以网络“自动驾驶”形态为类比,诠释了AI在工业垂直场景的真正挑战:实时性、严谨性与场景泛化能力。在网络行业这样的关键性基础设施中,毫秒级响应,零容错成为精准决策的刚性要求。为此,华为提出“一脑、一图、一网”的三层架构,让AI充分赋能网络,为工业应用提供智能的运营保障。
他还强调:
潞晨科技尤洋:视频大模型需要实现精细化文本控制、任意角度拍摄和角色一致性
潞晨科技创始人兼董事长、新加坡国立大学校长青年教授尤洋,分享了对视频大模型未来发展的深度洞察。作为分布式训练技术领域的专家,他带领团队此前已为谷歌、华为等科技巨头提供了大模型训练优化解决方案。

尤洋认为,未来三年视频大模型的发展将经历跨越式进步:
最关键的是要实现三大核心能力。
首先是精细化的文本控制能力。视频大模型应当能够准确理解并呈现用户描述的细节内容,从人物特征到场景要素都要做到精准把控。
其次是实现任意机位、任意角度的拍摄能力。这种突破可能彻底改变体育赛事直播等领域,让观众能够自主选择观看视角,“相当于在体育场里能够瞬间移动,移到教练席,移到最后一排,移到第一排”。
第三是保持角色一致性。尤洋指出,这对商业变现至关重要,“比如一个产品的广告,这个视频肯定从头到尾不管是衣服、鞋、车子,它的样貌不能有太大变化”。
对于视频大模型的商业前景,尤洋认为其将为电影制作带来革命性变革。通过AI技术,可以大幅降低特效场景制作成本,减少对危险镜头拍摄的实际需求,让创作更加自由。
无限未来时
商汤徐立:超级时刻可转化为另一个词,叫“打脸时刻”
商汤科技董事长兼CEO徐立博士,十年前就是因为见证了AlexNet,认为AI已经跨越了工业红线开始选择创业。对于AGI新征程,徐立在与量子位总编辑李根的交流中提出了他的认知和思考。

徐立表示,从过往十年来看,有两个要素是推动行业发展进步的基础,一是基础设施,二是场景化。
在他看来,接下来的AGI时代一定也是场景化推动整个技术的迭代,“技术本身只是一个技术”。
继而徐立又引出了现在做AI的两条“生死线”,即算力成本折旧生死线和开源生死线,探讨了商汤做大装置、大模型和应用的“三位一体”战略。
有意思的是,在被问到“什么事情发生是可以确认“超级时刻”到来了?”,徐立的回答深入人心,以至于后面几位嘉宾也反复提到。
小冰李笛:“私域运营”成为大模型时代新蓝海
过去一年,小冰很沉默。
但沉默之下是静水深流:2024年,小冰国内的AI toC产品,付费用户数是Character.AI的20多倍,付费转化率约为ChatGPT的8倍。
站在这样的成果上,当大模型热潮趋于平稳,不少人开始陷入对下一步机遇FOMO时,小冰公司首席执行官李笛站出来谈了谈那些已现的机遇。

他强调,当前AI行业正处于技术创新震荡期,大模型准入门槛降低,基础能力很难形成有效垄断,故而一味等待技术奇点并不会为产业创造实际价值,真正的机遇在于当技术的主题升级到了更广泛、正热门的具身智能领域。
具身智能圆桌邀请的嘉宾分别是:
群核科技首席科学家兼副总裁、KooLab实验室负责人唐睿。

千寻智能Spirit AI联合创始人、清华大学交叉信息学院博导高阳。

云深处科技联合创始人兼CTO李超。

在量子位总编辑李根的主持下,嘉宾们华山论剑,话题围绕“对具身智能的认知”“有何技术突破”“目前发展到哪一阶段”等展开。

如何认识or定义具身智能?
唐睿认为,具身智能和AI最大的区别是从芯片、显示器、内存、显存里走了出来,它不仅有一个脑子,通过屏幕和我们交互,更多可能是能够和外部我们所处的物理世界做交互。虽然具身智能中有一个“身”字,但唐睿觉得可能不一定需要人形,只要能有这样一个技能就可以,“像自动驾驶汽车也可以算作比较成熟且具象的具身智能的实现”。
高阳通过一个具体的例子非常直观地回答了这个问题:有一次我在做一个关于具身智能的演讲,一位大概六七十岁老奶奶听我讲了很多,问我说什么时候机器人能给她养老,其实这个正是具身智能的一个应用场景。具身智能的目标是构建能够帮助我们完成各种任务的机器人,这个机器人能帮我们做各种事情,比如帮我们的爷爷奶奶养老。
李超认为云深处是具身智能的的第一批受益者。具身智能给机器人赋予灵魂,在这个灵魂加持下,机器人应变能力加强,规模化应用进展加速,能够面向更加开放的环境。
为什么今年是具身智能元年?
李超认为随着从基于规则的传统控制方式转变为基于训练、强化学习等新技术的出现与成熟,机器人的智能和适用性得以大幅提升,从而突破了过去的限制和边界。
高阳也表示,现在做具身智能创业的一个最关键的因素是OpenAI已经证明,预训练结合一系列post-training的方式,确实可以真的产生至少看起来像是人类智能,或者达到人类智能表象一样的能力。
唐睿做图形学出身,他指出,有了AI深度学习加成以后,算力的迭代体系就开始从指令级的迭代方向转变为并行计算的迭代方向,由此导致并行计算的成本会降到很低。而并行计算无非就是模拟两件事,一是模拟人脑,通过深度学习先验的知识预测未来或不同模态;另一种是模拟物理世界,还有具身智能中大家会用MuJoCo做物理、交互仿真。而群核科技做的正是后者。
2024,产业里的代表性进展or事件?
唐睿关注到越来越多原本从事图形学和三维视觉研究的顶级学者与团队(如李飞飞、Leo Guibas、苏昊等),开始投身具身智能领域。他们凭借在虚拟世界和环境模拟方面的先天优势,为具身智能的发展注入新的动力与视角。
高阳最关注的进展在于如何利用互联网上的海量数据和中间层表示方法,将大模型预训练范式引入具身智能。这不仅包括像VLA(视觉-语言-动作)模型的成熟应用,还涉及通过引入轨迹表示、粒子模拟等中间层结构来减少对人工采集操作数据的依赖,从而在未来三到四年为具身智能的可持续发展奠定基础。
实践落地,数据是否是目前的关键挑战?
李超认为目前在他们关注的机器人本体与控制层面,数据并非主要挑战,但随着未来更复杂场景与操作需求出现,数据问题可能逐渐成为明年的挑战。
唐睿认为目前具身智能非常大的卡点是缺少高维的物理正确数据,而群核空间智能平台要做的事情就是为具身智能提供一个AI可交互世界,另外他强调了具身智能需要的真实物理模拟精度远高于纯视觉内容创作所需的精度。
他举例,像Sora这样的视频生成工具,目前虽能逼真再现视觉效果,却仍不足以提供精确的物理参数与交互反馈,从而难以直接满足具身智能的训练需求。这意味着在实现AGI级别机器人之前,如何获取高精度、具可交互性的模拟数据仍是一个需解决的关键问题。
具身智能是否有类似L0—L5的标准划分?
李超表示不仅有而且很明确,去年以前很多都是L1,准确说是L0,因为很多是由人在操控。而现在要分行业划分,在固定的小范围场景下可以达到L4,机器人能自主决策判断。
在高阳看来,制定一个标准,本意是为了促进一个行业的发展,可以去衡量每个具身智能技术到底达到了怎样的水平,但无论这个标准是什么样,可能最后因为客观技术的限制,这个标准到就变成了一个比较偏向宣传话术的东西,有限时间内大家做不到广泛场景的L4或L5的水平。
截至目前,具身智能走到了什么阶段?
唐睿将机器人各部分类比到人的“手、眼、脚、脑”四个核心的器官,分开来看每个部分都超越或接近人类,但尚未形成高度协调的一体化体系,因此整体仍处于早期阶段。高阳认为制定一个标准,本意是为了促进一个行业的发展,可以去衡量具身智能技术到底达到了怎样的水平,但无论这个标准是什么样,可能最后因为客观技术的限制,这个标准到就变成了一个比较偏向宣传话术的东西,有限时间内大家做不到广泛场景的L4或L5的水平。
李超更加乐观,他没有用类比的方法,而是认为具身智能已在工业等特殊场景中带来深刻改变,虽家用需求尚不明确,但在专业领域的实际应用已显现强大影响力,推动行业格局加速变化,展现出更乐观的发展前景。
后续还将有大会嘉宾更详细版内容分享,敬请关注!
(来源:量子位)