英伟达早不靠GPU躺赢,黄仁勋终极预判:10亿程序员时代将至,AI智能彻底廉价

2026年03月24日,20时14分39秒 科技新知 阅读 2 views 次

2026 年 GTC 大会刚刚落幕,黄仁勋坐下来,接受了一场长达两个半小时的深度访谈。

访谈中,黄仁勋以真诚分享的态度与极强的前瞻性,拆解了他如何看待产业拐点、如何做出判断。

二十年前,黄仁勋顶着利润下滑甚至生死存亡的风险,坚持把 CUDA 生态押上 GeForce,推动公司从一家图形芯片厂商转向计算平台公司。今天回看,这几乎是 NVIDIA 历史上最关键的一次转向。如今,他认为 AI 的核心竞争,正在从单颗芯片转向“AI 工厂”,而这将决定 NVIDIA 能否走向下一个十万亿美元市值。

黄仁勋先就“扩展定律”给出了一个精彩判断:扩展定律远没有到尽头,将同时沿着预训练、后训练、测试,以及智能体系统四条路径继续推进。真正的增长,正在转向推理、强化学习、智能体协作。而未来,大量数据将来自 AI 自身消化产生的合成数据,这会成为 AI 迭代的核心燃料。

未来决定智能上限的将是计算能力。

他认为在当下这个阶段,AI 能力的提升,已经无法靠单台计算机、甚至单颗 GPU 的升级来解决。模型性能的跃迁,越来越依赖系统级工程能力,最终把整个系统推向极限。NVIDIA 现在做的,也不再只是芯片,而是把整套计算系统作为产品来设计。

而硬件布局必须走在前面。AI 模型架构每六个月就会迎来一次重大迭代,但系统与硬件架构的更新周期长达三年。NVIDIA 的策略,是主动走到模型前面:自己做模型、持续追踪全行业最棘手的问题,在通用性与专业性之间找到最优平衡,保持架构的快速迭代。

如果说训练时代的核心问题是:“能不能把模型做得更大?”那么到了推理时代,黄仁勋认为,真正的问题已经变成:“每瓦每秒能够产出多少 token?”

顺着这条逻辑,他甚至把问题进一步推到了能源系统层面。黄仁勋指出,今天全球电力系统中存在大量未被有效利用的闲置。目前电力峰值只在 60% 左右,这些闲置资源完全可以被 AI 工厂充分利用。

在主持人惊叹黄仁勋的思考力时,他坦言,这来自于“集体的智慧”。在日常工作中,有 60 人会直接向他汇报,包括内存专家、CPU 专家、光学专家、GPU 专家、系统架构专家等等,几乎覆盖 NVIDIA 最核心的技术维度。他会广泛吸收信息,再在高维度上做决策。

这形成了他独特的思考方式,他会先设想一个未来,追问它为什么重要?它为什么值得存在?如何实现它?他还会不断把这套逻辑讲给公司内部员工、供应链伙伴和行业合作方听,让更多人参与进来,然后从工程和组织的角度,一步步把它变成现实。

某种程度上,这和马斯克的思维方式不谋而合,他高度称赞马斯克是“系统层面的极简主义者”。马斯克会一直质疑,直到所有不必要的部分都被剔除,只保留系统真正需要的东西。

而黄仁勋也喜欢用第一性原理,先去看一件事“理论极限在哪里”。或许有些看起来需要 74 天才能完成的事情,如果重新拆解、重新设计,最后可能只需要 6 天。

他自信英伟达的十万亿美元市值不是梦想,世界正在从一个基于检索的文件系统,演变成一个基于生成的上下文系统。一旦这个转变成立,世界需要大量的 AI 工厂。在这样的图景里,NVIDIA 已经站在新一轮经济基础设施的核心位置。

在聊到程序员的未来时,他大胆预测,未来程序员会扩展到十亿级规模。原因在于,真正重要的工作,从来不只是“写代码”本身,而是解决问题、团队合作、诊断、评估、发现新问题、创新和整合。与此同时,他强调人人都要学 AI,不论什么工种,他都更倾向录取熟练掌握 AI 的人。

而这场访谈的最后,黄仁勋少见的露出感性的一面。他谈到自己也会有“夜不能寐”的时刻,面对压力与挫折,他会把问题不断拆分,直到可以行动起来去解决。他喜欢用“遗忘”的方式忘记失败,重振旗鼓,带着好奇心继续往前走。

这位芯片教父,既以极度理性的方式审视技术演进,也始终相信,智能或许会商品化,但人性永远高于技术。

以下是访谈全文,经 InfoQ 翻译整理。

极致的协同设计, 与机架级工程

莱克斯·弗里德曼:你带领 NVIDIA 进入了人工智能的新阶段:从专注于芯片级设计,转向机架级、系统级设计。长期以来,NVIDIA 的成功建立在打造尽可能优秀的 GPU 之上,而现在,你们已经把这种追求扩展到了 GPU、CPU、内存、网络、存储、电源、散热、软件、机架本身、Pod,乃至整个数据中心。那么,我们来谈谈“极致协同设计”。对于一个包含如此多复杂组件和设计变量的系统而言,协同设计中最困难的部分是什么?

黄仁勋:之所以需要极致协同设计,是因为你面对的问题,已经无法靠一台计算机或单个 GPU 来解决。真正要解决的是:当计算机数量增加时,系统性能不仅要线性提升,而是要提升得更快。假设你增加了一万台计算机,但你希望整体速度提升一百万倍。那就意味着,你必须对算法进行拆分与重构,对流水线、数据和模型做分片。当你以这种方式分散问题时——注意,不仅是扩大规模,而是把问题本身拆散——所有因素都会开始相互干扰。

这就回到了阿姆达尔定律:一项任务的整体加速,取决于可加速部分在总工作负载中的占比。比如,如果计算只占整个问题的 50%,那么即便你把计算本身加速一百万倍,整体吞吐也不过提升两倍。所以,当我们做大规模分布式计算时,不只是 GPU 成为问题,CPU 是问题,网络是问题,交换机是问题,如何把工作负载高效分配到这些机器上,同样也是问题。

这本质上是一个极其复杂的计算机科学问题。我们必须调动一切技术手段,否则只能得到线性扩展,或者只能指望摩尔定律继续推进。但摩尔定律的进展已经明显放缓,而丹纳德缩放时代也早已过去。

莱克斯·弗里德曼:这里面一定存在大量权衡,而且涉及完全不同的学科。你们在高带宽内存、NVLink、网卡、光模块、缆、电源传输、散热等每一个领域,几乎都有世界级专家。你们是怎么把这些人聚在一起,共同讨论解决方案的?

黄仁勋:这也是为什么我有这么多员工。先说“极致协同设计”到底是什么。我们优化的是整个技术栈:从架构、芯片,到系统、系统软件、算法,再到应用程序。这是一层。另一层则跨越 CPU、GPU、网络芯片、纵向扩展交换机、横向扩展交换机,以及电源和散热——因为这些计算机虽然能效很高,但整体仍然消耗巨大的电力。

所以第一个问题是:它是什么?第二个问题是:为什么必须这么做?原因刚才已经讲过——只有把工作负载真正分布起来,才能获得远超“单纯增加机器数量”的收益。第三个问题则是:怎么做?

而这正是 NVIDIA 这家公司与众不同的地方。设计计算机时,你必须先想清楚操作系统;设计公司时,也应该先想清楚公司到底要制造什么。我看过很多公司的组织结构图,几乎都长得一模一样:分层的、汉堡包式的、套模板式的。但公司存在的意义,是成为一个持续生产产品的机器、机制和系统。既然如此,公司的架构就应该反映它所处的环境,也应该反映它想制造的产品。

我的直接下属大约有 60 人,而且实际上还不止。显然,我不可能和他们每个人进行频繁的一对一谈话,这在现实中根本不可行。更重要的是,如果你想把协同设计做好,就不能让 60 个人各自独立工作、彼此隔绝。

莱克斯·弗里德曼:所以你的汇报关系很多,而且其中大多数都是工程相关的负责人。

黄仁勋:几乎全都是,有内存专家、CPU 专家、光学专家、GPU 专家、架构专家、算法专家、设计专家……

莱克斯·弗里德曼:这太不可思议了。所以你们必须持续地围绕整个技术栈展开深入讨论?

黄仁勋:没错。而且这些对话从来都不是一个人单独进行的。这也是为什么我不做一对一。我们提出问题,然后大家一起解决。因为我们做的是极致协同设计,所以公司本身也必须用极致协同设计的方式来运转。

莱克斯·弗里德曼:也就是说,即便你们讨论的是一个具体组件,比如散热或网络,所有人也都在场?

黄仁勋:对,就是这样。

莱克斯·弗里德曼:于是就会有人指出:“这种供电方式不行。”“这种方案会影响内存。”“这对别的部分也行不通。”

黄仁勋:完全正确。 每个人都知道自己什么时候该介入、什么时候该提醒。因为很多事情看上去属于某个局部,但实际上会影响整个系统。只要大家都在场,就能更早暴露问题,也能更快形成真正可行的方案。

NVDIA如何悄然转型: CUDA是最接近“生存威胁”的战略决策

莱克斯·弗里德曼:正如你所说,NVIDIA 是一家不断适应环境的公司。那么在你看来,外部环境是从什么时候开始变化的?NVIDIA 又是如何一步步调整自己的?从最早服务游戏的 GPU,到早期深度学习革命,再到今天把一切看作 AI 工厂,NVIDIA 的业务究竟是什么?

黄仁勋:这个问题可以系统地回答。我们最初是一家“加速器公司”。加速器的优点是,它对特定任务高度优化;缺点是,它的适用范围比较窄。专业化本身并没有错,但市场规模会限制研发投入,而研发能力最终决定了你能在计算机产业中产生多大影响。

所以,从一开始我们就知道,“做专业加速器”只是第一步。我们必须找到一条通向“加速计算公司”的道路。问题在于,一家公司越通用,就越容易失去专业优势;越专业,又越难成为真正意义上的计算平台。换句话说,“专业化”与“通用性”之间,本来就存在根本张力。我们必须沿着一条非常狭窄的道路前进:一边扩展计算能力的边界,一边又不能放弃最关键的专业优势。

我们迈出的第一步,是发明可编程像素着色器。这是可编程性的开始,也是我们走向计算的开始。第二步,是把 IEEE 兼容的 FP32 引入着色器。这是朝通用计算迈出的一大步。也正因为如此,那些做流处理器、做数据流计算的人开始注意到我们。他们意识到:GPU 也许不仅图形能力强,而且计算能力惊人,并且已经符合 IEEE 标准。

随后,我们基于 FP32 做了 C 语言接口,也就是 Cg。Cg 最终一步步走向了 CUDA。而把 CUDA 集成进 GeForce,成为了一个极其艰难、几乎威胁公司生存的战略决策。它让公司付出了巨大的成本,而在当时,我们几乎承担不起。但我们还是这么做了,因为我们想成为一家真正的计算机公司。而一家计算机公司,必须拥有自己的计算架构,并且这个架构要贯穿我们生产的所有芯片。

莱克斯·弗里德曼:你能详细解释一下那个决定吗?为什么说把 CUDA 放进 GeForce,是一个“负担不起”的决定?当时你们为什么还敢这么做?

黄仁勋:我会说,那是我们最接近“生存威胁”的一次战略决策。事情是这样的:我们发明了 CUDA,它大幅扩展了 GPU 可以加速的应用范围。但问题在于,怎样吸引开发者来使用 CUDA?而计算平台的核心,恰恰就是开发者。

开发者之所以选择一个计算平台,不只是因为它“能做很酷的事”,而是因为它有足够大的用户基础。因为开发者和所有人一样,希望自己的软件能触达尽可能多的用户。所以,平台安装基数才是架构最重要的部分。

一个典型例子就是 x86。它在架构上常常受到批评,不少人认为它不够优雅;而很多由最杰出的计算机科学家设计出来的 RISC 架构,反而更优美。但结果是,活下来并主导世界的是 x86。为什么?因为安装基础决定架构,而不是架构优雅与否。

当时,CUDA 之外也有其他架构,例如 OpenCL 等。但我们做出的关键判断是:归根结底,真正决定胜负的是安装基础。而那时,GeForce 已经很成功了。我们每年卖出数百万块 GeForce GPU。于是我们决定:把 CUDA 集成到 GeForce 里,装进每一台 PC,无论用户是否立刻使用它,都先建立安装基础。

与此同时,我们开始大规模做开发者生态:走进大学、写教材、开课程,把 CUDA 带到研究机构和校园里。当时还没有云计算,而 PC 是最主要的计算工具。我们等于把“超级计算机”送进了每个学校、每位研究者、每个工程系学生的桌面。

问题在于,CUDA 大幅增加了 GPU 成本,而 GeForce 是消费级产品。成本的增加几乎吃掉了公司全部毛利。当时 NVIDIA 的市值大概只有六七十亿美元,后来一度跌到 15 亿美元左右。公司经历了非常艰难的阶段,但我们始终坚持把 CUDA 放在 GeForce 上。所以我常说,NVIDIA 是 GeForce 打造出来的,因为正是 GeForce 把 CUDA 带给了世界。

研究人员、科学家之所以能接触 CUDA,往往正是因为他们本来就是游戏玩家。他们会自己组装电脑,会在实验室里用 PC 部件搭集群。很多 CUDA 的最早传播,就是这样发生的。

莱克斯·弗里德曼:后来,它成了深度学习革命的平台基础。

黄仁勋:没错,这是一个非常重要的洞见。

莱克斯·弗里德曼:你还记得当时那些决定生死的会议是什么样的吗?在公司层面,怎么做出这种几乎“赌上一切”的决定?

黄仁勋:我必须向董事会清楚说明我们的目标,管理团队也必须知道,我们的毛利率会大幅下降。

你可以想象一下:如果 GeForce 承担了 CUDA 的成本,而玩家既不会感激它,也不会愿意为此多付钱,那会是什么情况?他们只会支付一个固定价格,不会在意你的成本增加了多少。当时我们的成本上升了大约 50%,而原本的毛利率只有 35%。所以,那的确是个非常艰难的决定。

当然,你可以从战略上推理:未来这项能力也许能进入工作站和超级计算机市场,而在那里我们或许可以获得更高利润。但即便如此,也要等十年。

至于我个人是怎么做判断的,很大程度上来自好奇心。某个时刻,我会在脑海中形成一套逻辑体系,让我确信某个结果一定会发生。 一旦我真正相信某件事会发生,它在我心里就已经是现实了。中间当然会有很多苦难,但你必须坚持你所相信的东西。

莱克斯·弗里德曼:也就是说,你先设想一个未来,然后从工程和组织的角度,一步步把它变成现实?

黄仁勋:是的。你会思考:它为什么重要?它为什么值得存在?如何实现它?而且不只是我,管理团队也一直在思考这些问题。我们花大量时间去构建共同的理解。

很多公司是这样运作的:领导层保持沉默,内部突然知道了一些事,然后某一天宣布一个宏大计划——新财年、新使命宣言、大裁员、大重组、新 Logo。我从不这么做。

当我意识到某件事会改变未来时,我会很早就开始反复告诉身边的人:这件事很重要,它会带来什么影响,它会推动什么变化。我会抓住每一个机会——外部信息、新洞见、新突破、新里程碑——不断去塑造其他人的信念体系。我每天都在这么做:对董事会如此,对管理团队如此,对员工如此。

所以,当我最终宣布“我们要收购 Mellanox”或“我们要全面押注深度学习”时,大家通常已经在相当程度上认同了。在某种意义上,我正式宣布时,员工甚至会觉得:“你怎么现在才说?” 因为在正式宣布之前,我已经在不断塑造他们的信念结构了。

我不仅在塑造公司的认知,也在塑造整个行业合作伙伴的认知。 因为我们不直接卖“完整的计算机”,也不直接做云。我们真正做的是计算平台。我们采用垂直整合的方式把平台设计和优化好,但随后会开放平台的每一层,让它能集成进别人的产品、服务、云平台、超级计算机和 OEM 电脑里。

所以,如果我不先说服整个生态,我就无法完成我的工作。GTC 很大程度上就是在描绘一个未来,好让当我们的产品真正成熟时,外界会觉得:“你们怎么现在才把它拿出来?”

AI的四条扩展定律: 预训练、后训练、测试、智能体

莱克斯·弗里德曼:你一直相信规模定律。现在你依然相信吗?

黄仁勋:当然。而且现在我们拥有的,不止一条规模定律。

莱克斯·弗里德曼:你曾提到四个层面:预训练、后训练、测试时扩展,以及智能体扩展。那在思考未来时,你最担心、最可能成为瓶颈的问题是什么?

黄仁勋:我们可以先回顾一下,过去大家曾以为的瓶颈是什么。

最初,大家担心的是预训练规模定律:担心高质量数据不够,担心数据量限制了模型能达到的智能上限。模型越大,数据越多,能力越强——这是预训练的基本逻辑。后来,Ilya Sutskever(伊利亚·苏茨克维,前 Open AI 首席科学家等)人也提出过类似看法:数据不够了,预训练快到尽头了。整个行业一度因此恐慌,好像 AI 的增长就此结束。但显然,事实并非如此。

我们会继续扩展训练数据,其中大量数据将是合成数据。很多人对此感到困惑,但他们忽略了一件事:人类自己互相学习、启发和训练时,使用的大量信息,本质上也是“合成的”——不是天然存在于自然界中,而是人创造出来、改写、增强、再生成、再传播的。现在 AI 已经能获取真实数据,对其增强、改进,再合成出海量数据。

所以,后训练阶段的规模也会持续扩大。未来真正由人类直接生成的数据,在总训练数据中的占比会越来越小。训练的限制因素,将越来越不是数据,而是计算能力。

接下来是推理,也就是测试时扩展。我记得以前有人跟我说:“推理很简单,真正难的是预训练。” 他们认为,推理芯片会很小、很廉价,迟早会被商品化,人人都能 但这对我来说从来都不合逻辑,因为推理就是“思考”,而思考本来就比阅读困难得多。

预训练在某种意义上更像是大规模阅读、归纳和寻找模式;而推理意味着你要思考、计划、搜索、解决问题,要把从未见过的经验分解成可处理的部分,再用第一性原理、既有经验或搜索过程去求解。 既然如此,为什么它会是轻量级计算? 事实证明,我们之前的判断是对的:测试时扩展需要非常巨大的计算量。

那推理之后是什么? 接下来就是智能体扩展。 我们已经有了大型语言模型,但当智能体真正工作时,它会研究问题、访问数据库、调用工具,最重要的是,它会派生出大量子智能体。 这就像组织中的“倍增效应”:与其靠我一个人扩展,不如通过雇更多人来扩展 NVIDIA。同样,AI 也可以通过派生智能体团队来扩展自己。

所以,下一个规模定律就是智能体扩展定律。随着智能体系统运行,它们会产生更多数据、更多经验,其中一部分会被我们保留下来,重新回流到预训练,进行泛化;再通过后训练精炼;再通过测试阶段强化;最终回到实际应用中。这个循环会持续运转。

说到底,智能的发展最终取决于一个因素:计算能力。

预测未来三年: 硬件必须押注尚未出现的AI

莱克斯·弗里德曼:这里有个很棘手的问题:某些未来模型结构可能需要完全不同的硬件才能发挥最佳性能。比如 MoE。可你们不可能在一周内就把硬件重做一遍。你们必须提前押注。这太可怕了,也太难了。

黄仁勋: 完全正确。AI 模型架构大约每六个月就会发生一次重大变化,而系统架构和硬件架构的更新周期,大约是三年。因此,你必须提前预测未来两三年可能发生什么。

我们有几种方法。 第一,我们做自己的研究。这也是我们同时做基础研究和应用研究的原因。我们自己构建模型,所以有第一手实践经验。 第二,我们与全球几乎所有重要的 AI 公司都有合作。我们尽最大努力去理解他们正在面对什么问题。第三,架构本身必须足够灵活,能够适应变化。CUDA 的一个优势就在这里:它既是一个强大的加速架构,又保持了相当高的灵活性。

莱克斯·弗里德曼:也就是说,你在倾听整个行业的“耳语”。

黄仁勋:没错。你必须听,必须向所有人学习。真正困难的,是在“足够专业化、从而显著超越 CPU”与“足够通用、从而适应不断变化的算法”之间取得平衡。这正是 CUDA 能够持续强大的原因,也是我们不断更新它的原因。

比如,当 MoE 模型兴起后,我们从 NVLink 8 发展到了 NVLink 72。这样一来,一个拥有 4 万亿到 10 万亿参数的模型,就可以在单一计算域中运行,仿佛它就在一颗 GPU 上。如果你仔细看 Grace Blackwell 机架的架构,它几乎就是为大型语言模型服务的。而再过一年,你看到的 Vera Rubin 机架已经不同了:它增加了存储加速器,搭配名为 Vera 的新 CPU,以及用于 LLM 的 Rubin GPU 和 NVLink 72。

除此之外,还有新的机架形态。整个系统和上一代相比都发生了变化,因为前一代是为 MoE 大模型和推理而设计,而这一代则开始面向智能体,以及智能体与工具的集成。

莱克斯·弗里德曼:显然,这套系统设计在 Claude Code、Codex 以及新一代智能体系统大规模出现之前就已经开始了。所以,本质上你是在提前看见未来。这到底是一门什么样的艺术?

黄仁勋:其实没那么神秘。你只要认真想清楚就行。 假设我们希望一个大型语言模型成为“数字员工”,那它必须具备什么能力?

第一,它必须能访问真实数据,比如文件系统。第二,它必须能做研究。因为它不可能一开始就无所不知,我也不想等到它无所不知时才让它开始工作。第三,它必须能使用工具。因为如果它真想帮我做事,就必须调用我现有的工具体系。

有些人说:“AI 会彻底摧毁软件,我们以后不再需要软件和工具了。” 我认为这完全错误。我们做个思想实验:假设十年后,我们造出了一个非常先进的人形机器人。那它是更可能走进我的房子,使用我现有的微波炉、锤子和各种工具来完成任务,还是更可能让自己的手臂变成锤子、手术刀,甚至从手指里发射微波?显然,它更可能直接使用现有工具。

第一次不会用没关系,它可以联网看说明书,看完立刻就会了。所以,未来智能体的关键特征其实非常明确:访问文件、做研究、调用工具、拥有 I/O 子系统。而一旦你顺着这个思路往下推,你就会发现,这实际上是在重新发明计算机。

我们在 GTC 上展示智能体系统结构图,很多人后来看到时会说:“这不就是今天这些智能体系统在做的事吗?” 是的。两年前我们就已经在讨论这样的系统形态了。当然,这其中也有很多前提:Claude、GPT 等模型必须达到足够高的能力水平;同时,也需要足够强大的开放生态和开源项目把这些能力推向大众。

在我看来,今天开放智能体生态对智能体系统的意义,某种程度上就像当年 ChatGPT 对生成式 AI 的意义一样,影响非常深远。

莱克斯·弗里德曼:这类系统之所以引起如此巨大关注,除了它足够强大之外,也因为它带来了很复杂的安全问题。用户该如何把自己的数据交给系统,让它真正做事,同时又不造成严重后果?整个社会都在寻找平衡点。

黄仁勋:是的。所以我们立即投入安全工作,找来一批安全专家,做了一套安全框架,并将其集成到这类智能体系统里。我们在 NVIDIA 内部也推出了相应的安全方案。

核心原则非常简单: 智能体通常有三类高风险权限——访问敏感信息、执行代码、对外通信。如果在任何时候,我们都只赋予它其中两项,而不是三项同时开放,就能极大降低风险。在此基础上,我们再叠加企业已有的权限管理和策略引擎。我们的目标,是尽最大努力让智能体系统在企业环境中变得更强大、更可用,也更安全。

AI拓展的真正瓶颈

莱克斯·弗里德曼:你刚才讲了过去行业如何突破一个又一个“看似会成为瓶颈”的限制。那展望未来,在智能体将无处不在的情况下,扩展的真正障碍是什么?

黄仁勋:功耗当然很重要,但它并不是唯一的问题。 也正因为如此,我们才如此强调极致协同设计——目标是让每瓦每秒能够产生的 token 数量持续提高,而且是按数量级提高。过去十年,如果只依赖摩尔定律,计算能力大概只能提升 100 倍;但我们通过系统级协同设计,实现了百万倍级别的提升。

我们会继续这样做。能源效率,也就是每瓦性能,直接决定 AI 工厂的收益能力。我们会竭尽全力持续降低 token 成本。虽然我们的系统价格在上升,但 token 产出效率提升得更快,因此单位 token 成本在持续下降,而且往往是按数量级下降。

莱克斯·弗里德曼:所以核心不仅是降低功耗,更是要提高“每瓦每秒产生多少 token”。当然,另一半问题就是:我们如何获得更多电力。

黄仁勋:没错。我们也确实需要更多电力。

莱克斯·弗里德曼:电力之外,供应链上的瓶颈会不会让你夜不能寐?比如 ASML 的 EUV 光刻机、台积电的先封装、SK 海力士的 HBM 等等。

黄仁勋:我们一直在为这些事情努力。历史上几乎没有哪家公司能像我们这样,在高速增长的同时继续加速增长。更重要的是,在整个 AI 计算市场中,我们的份额还在扩大。

所以,供应链——无论上游还是下游——对我们都至关重要。我花大量时间向与我合作的 CEO 们解释:什么因素会驱动未来增长,为什么增长还会持续加速。这也是为什么在我的很多主题演讲现场,坐着大量 IT 基础设施产业上下游的 CEO。可能从来没有哪一场技术主题演讲,会聚集这么多 CEO。

一方面,我要让他们理解我们现在的业务和短期增长动力;另一方面,我还要让他们知道我们下一步会走向哪里,以便他们能据此做资本支出决策。我向他们解释未来的方式,和我向员工解释未来的方式并没有本质区别。

比如 DRAM 行业。三年前,主流数据中心内存还是 CPU 用的 DDR。那时我对一些 CEO 说,虽然 HBM 当时的应用还很少,主要只在超级计算机里,但未来它会成为数据中心主流内存。这在当时听起来非常离谱,但有些 CEO 相信了,于是开始投资 HBM。

还有低功耗内存,本来是手机里常见的东西。我们希望供应链把它演化成适合数据中心超级计算的产品。对方最初会觉得很奇怪:“手机内存怎么会进入超级计算机?” 但如果你理解系统演进方向,就会知道这为什么合理。

所以我的工作之一,就是传播知识、塑造认知、激发供应链去提前行动。

莱克斯·弗里德曼:所以你不仅是在为 NVIDIA 画未来,也是在为整个供应链画未来,要和台积电、ASML 等公司不断沟通。

黄仁勋:对,上游、下游,全都包括。

莱克斯·弗里德曼: 整个半导体行业的工程深度和供应链复杂度都让人敬畏,而它居然还能运转下去。

黄仁勋:因为这背后是深厚的科学、深厚的工程、极其精湛的制造工艺,以及大量自动化和机器人制造。仅仅我们的一个机架,就有大约 130 万个组件。Vera Rubin 机架系统背后,大概有 200 家供应商。

莱克斯·弗里德曼:有趣的是,你并没有把供应链说成那个让你夜不能寐的障碍。

黄仁勋:因为我已经在做所有必须做的事了。正因为我已经把该做的都做了,所以晚上还能睡得着。我必须提前想清楚:从最初的 DGX-1,到今天的 NVLink 72 机架式计算,这意味着什么?它对软件意味着什么?对工程、设计、测试意味着什么?对供应链意味着什么?

举个例子,我们实际上把原本在数据中心内部完成的超级计算机集成工作,前移到了供应链中。如果你的目标是建设 50 吉瓦的数据中心,而这些超级计算机需要在出货前就在供应链中被组装、测试和预集成,那么供应链本身每周都要消耗巨大电力。

NVLink 72 本质上是在供应链里就组装好一台完整超级计算机,然后整机运输。每个机架重量达到两三吨。以前我们是拆分运输,到数据中心再装;现在密度太高,已经做不到了。所以我必须飞到供应链伙伴那里,亲自告诉他们:“我们以前是这样组装 DGX 的,现在要换成另一种方式。因为推理市场要来了,而推理将会是一个巨大的市场。”

我会从第一性原理出发,一步步解释,直到他们理解为什么要这么做,然后再请求他们投入数十亿美元资本开支。

莱克斯·弗里德曼:我们再多谈一点电力。你对解决能源问题怎么看?

黄仁勋:我特别想传达一个观点:今天的电网设计,通常是为了最坏情况预留容量。但最坏情况往往只出现在一年里极少数几天,比如严寒或酷暑,以及极端天气时。 而在 99% 的时间里,电网实际负荷远低于峰值,可能只有峰值的 60% 左右。也就是说,绝大多数时候,电网上都有大量闲置电力。

这些容量必须预留着,以防医院、机场和关键基础设施在极端情况下需要。但问题是:我们能不能设计一种新的合同与系统架构,让数据中心在社会基础设施最需要电力的时候,主动让出部分负载?

这种情况其实非常少见。在那些短暂时段,我们可以开启备用发电机、把工作负载迁移到别处,或者降低系统性能、接受更高延迟。也就是说,数据中心并不一定非得在任何时刻都追求绝对的 100% 满速运行。现在的问题在于,大家都在签极端严格的供电合同,要求近乎绝对不掉电,这就迫使电网长期按峰值准备。而我只是想利用那些本来闲置着的剩余电力。

莱克斯·弗里德曼:那阻碍是什么?监管?官僚主义?

黄仁勋:我认为这是三方共同作用的结果。第一,终端客户通常要求数据中心绝对不能出故障,要求非常极端。很多时候,签这些合同的人和公司 CEO 之间甚至是脱节的,CEO 可能根本不知道内部签了怎样的供电条件。第二,我们需要建设能够“优雅降级”的数据中心。也就是说,当电网告诉我们必须把负载降到 80% 时,我们可以说:“没问题。” 我们可以迁移工作负载、降低吞吐,但保证数据安全和关键业务连续。第三,电力公司也应该意识到,这是一个机会。它们不该只说:“我需要五年才能扩容。” 而应该说:“如果你愿意接受某种分级供电承诺,我下个月就能给你提供电力。”

如果电力公司也愿意提供分层级、分场景的供电承诺,那么大家都能找到解法。今天电网上的浪费太大了,我们应该尽快解决这个问题。

盛赞马斯克、中国开发者与台积电

莱克斯·弗里德曼:你高度评价过埃隆·马斯克和 xAI 在孟菲斯建设 Colossus 超级计算机的成就。他们可能只用了四个月,就以创纪录速度建成,如今已经拥有 20 万块 GPU,而且还在继续扩张。你如何看待他的工程方法?

黄仁勋: 首先,埃隆涉猎极广,而且每个领域都很深入。同时,他还是一位非常出色的系统思考者。

他会从多个学科同时思考一个问题,而且会持续逼问每一个环节:第一,这件事真的有必要吗?第二,它一定要这样做吗?第三,它真的必须花这么长时间吗?他会一直质疑,直到所有不必要的部分都被剔除,只保留系统真正需要的东西。从这个意义上说,他是一个系统层面的极简主义者。

而且他会亲自出现在问题现场。如果哪里出问题,他就直接过去,问:“问题是什么?当一个领导者真的这样介入时,很多“我们一直都这么做”“我在等别人”之类的借口,就会被迅速清除掉。更重要的是,当你以如此强烈的紧迫感亲自推进,整个供应链都会把你放到最高优先级。因为每个供应商都有很多项目,也有很多客户,但他会让自己成为对方最重要的客户之一。

莱克斯·弗里德曼: 我参加过很多那样的会议。真正少见的是,有人不断追问:“为什么这件事不能更快?到底卡在哪儿?” 一旦你深入现场,通常就会发现,它最后其实会变成一个工程问题。

黄仁勋:没错。

莱克斯·弗里德曼:NVIDIA 的极致协同设计方法,和埃隆的系统工程方法之间,有相似之处吗?

黄仁勋:有。协同设计本质上就是一个系统工程问题。而我们内部有一种我三十年前就建立的理念,我把它叫作“光速”。这里的“光速”并不只是速度,它是“物理极限”的代称。

也就是说,我们做任何事时,都要拿它和物理极限比较:内存速度、数学运算速度、功率、成本、时间、精力、人员规模、制造周期…… 每一项都要问:它距离理论极限还有多远?比如,你要同时考虑延迟与吞吐、成本与吞吐、成本与容量。每个约束条件都有自己的“光速”。高吞吐系统和低延迟系统,在架构上往往根本不同。所以你必须先知道:高吞吐系统的极限在哪里,低延迟系统的极限又在哪里,然后才能做合理权衡。

这就是为什么我要求每个人,在做任何事情之前,都先从第一性原理出发,先搞清楚物理极限在哪里,再用它来审视一切。我不喜欢那种“持续改进式”的思路。如果今天某件事需要 74 天,而有人告诉我他能优化到 72 天,我的第一反应不是高兴,而是先问:“为什么一开始会要 74 天?如果完全从零开始重构,理论上要多少天?” 很多时候答案会让你吃惊:也许只需要 6 天。

当然,从 6 天到 74 天之间可能有很多现实约束,比如成本、风险、妥协,但至少你会知道这些额外时间究竟耗在了哪里。

莱克斯·弗里德曼:面对如此复杂的系统,追求简洁是否仍然是一个有用的设计原则?比如 Vera Rubin 系统中,包含 7 类芯片、5 类专用机架、40 个机架、约 12 万亿个晶体管、近 2 万个 NVIDIA 芯片、1100 多颗 Rubin GPU、60 exaflops 的计算能力,以及每秒 10 PB 的扩展带宽——而这还只是其中一个 Pod。

黄仁勋:没错,那还只是一个 Pod。

莱克斯·弗里德曼: 而即便只是 NVL72 机架本身,也已经包含大约 130 万个组件、1300 个芯片、4000 个模块,而且全都装在一个 19 英寸宽的机架里。

黄仁勋: 为了让你有个概念,我们大概每周都要生产 200 套这样的系统。

莱克斯·弗里德曼:在这种复杂度下,真正意义上的“简洁”似乎已经不可能了。但“尽可能简单”,仍然是你设计时追求的目标吗?

黄仁勋:是的。我最常说的一句话是:系统必须复杂到刚刚好,但要尽可能简单。关键问题在于,这些复杂性是否都是必要的?我们必须不断检验、不断质疑。凡是不必要的复杂,本质上都是多余的。

莱克斯·弗里德曼:这依然令人震撼。整个半导体产业,尤其是 NVIDIA 所做的事情,完全可以说是历史上最伟大的工程成就之一。

黄仁勋:这是这个世界上被制造出来的最复杂的计算机。

莱克斯·弗里德曼: 如果真有一场“工程奥运会”,那台积电、ASML 和 NVIDIA 一定都在金牌行列。

黄仁勋:可以说,各个项目里的金牌选手都聚集在这里了。

莱克斯·弗里德曼:你最近去了中国。过去十年里,中国打造了大量世界级科技公司、世界级工程团队和完整的科技生态,也产出了很多令人惊叹的产品。你怎么看中国为什么能做到这一点?

黄仁勋:原因很多。先看几个基本事实:全球大约有 50% 的 AI 研究人员是中国人,而且其中很多仍然在中国。当然,我们这里也有很多中国研究人员,但中国本土仍然有非常庞大的优秀人才群体。

其次,中国科技产业诞生和成长于移动互联网与云计算时代,而这个时代的软件因素极其关键。中国拥有非常强的科学和数学人才基础,有大量受过良好教育的年轻人,因此他们对现代软件范式非常熟悉。

另外,中国并不是一个单一、同质化的经济体,而是由许多省市和地方单元组成,这些地方之间本身就存在竞争。这也是为什么你会看到那么多电动车公司、那么多 AI 公司、那么多在不同方向上开发 AI 产品的企业。内部竞争极其激烈,而最终能活下来的,往往都是非常强的公司。

还有一个文化因素。中国企业之间存在一种非常特殊的关系网络:家庭、朋友、校友联系都非常强。工程师之间、公司之间、朋友之间,会发生大量信息流动。 在这样的环境里,把技术完全封闭起来并不一定是最有效的选择。很多时候,开放出来反而更合理,因为开源社区能把创新放大并加速。所以你会发现,中国企业整体上对开源非常积极,这并不奇怪。

把这些因素放在一起:激烈竞争、快速知识传播、开源文化、深厚的教育基础,以及强烈的上进心——最终就形成了非常快的创新速度。我认为,中国是当今世界创新速度最快的国家之一。

莱克斯·弗里德曼:而且从文化角度来看,在中国,当工程师是一件很“酷”的事。

黄仁勋:没错。那是一个建设者之国。

我们国家有很伟大的领导人,但他们大多是律师,这当然也非常重要,因为法治和制度同样关键。而中国是在巨大发展与建设过程中成长起来的,所以他们大量领导者本身就是杰出的工程师。那是一个由建设者推动成长的国家。

莱克斯·弗里德曼:既然说到开源,我想提一下 Perplexity,以及你们发布的开源 Nemotron 模型。你对开源 AI 的愿景是什么?尤其是像 DeepSeek、MiniMax 这样的中国公司,也都在积极推动开源。

黄仁勋:首先,如果我们想成为一家伟大的 AI 计算公司,我们就必须理解 AI 模型是如何演化的。这也是为什么我们不仅做硬件,也做模型研究。比如 Nemotron 的一些工作,并不只是标准 Transformer,而是会探索 Transformer 与 SSM 的结合;更早之前,我们在生成模型方向上也做过很多基础研究。这些研究让我们能更早理解:未来什么样的计算系统,才能真正支持下一代模型。这本身就是协同设计的一部分。

第二,我认为有一件事是显而易见的:一方面,世界上当然会存在顶级专有模型;另一方面,如果 AI 想真正进入每个行业、每个国家、每个研究者、每个学生手里,开源就不可或缺。如果一切都是专有的,研究就很难做,创新也很难扩散。我们有能力、有规模,也有动机持续构建这些模型,并把它们开放出来,从而让每个行业、每个国家都能加入 AI 革命。

第三,我们也必须认识到,AI 不仅仅是语言。未来的 AI 很可能还会处理生物学、化学、物理、流体力学、热力学等信息模式,而这些并不总能被语言完全表达。必须有人去确保天气模型、生物 AI、物理 AI 等领域都能被推进到前沿。我们不造车,但我们希望每家汽车公司都能获得优秀模型。我们不自己研发药物,但我希望像礼来这样的公司能拥有世界上最好的生物 AI 系统,帮助他们做药物研发。

所以,推动开源的根本原因大致有三个:第一,AI 的范畴远大于语言;第二,我们希望让尽可能多的人参与 AI;第三,模型研究本身也必须与计算系统协同演进。

莱克斯·弗里德曼:我还想特别感谢你们真正意义上的开源。

黄仁勋:谢谢你这么说。我们不仅开放模型和权重,也开放数据和构建过程。这一点对我们非常重要。

莱克斯·弗里德曼:你来自台湾,而且与台积电关系密切。台积电的工程文化和制造能力都已经成为传奇。你怎么理解它为什么能取得如此独特的成功?

黄仁勋:人们对台积电最大的误解之一,就是以为它的护城河只是某一项晶体管技术。好像只要别人做出更好的晶体管,台积电就会失去优势。 其实完全不是这样。台积电真正的独特之处,在于它拥有一整套技术体系:不仅有晶体管,还有金属化、封装、3D 封装、硅光子以及其他大量工艺技术。

但更重要的是,它能在全球范围内协调数百家公司不断变化的需求:客户扩张、收缩、转型、追加、取消、紧急插单……整个产业格局瞬息万变,而台积电却能在这种复杂性中,保持高产量、高良率、低成本,并提供极高水平的客户服务。他们知道,晶圆不是普通商品,而是客户公司运转的基础。晶圆若不能按时交付,客户的公司就无法按计划运行。所以,他们的制造系统几乎是“神奇”的。

第二,是企业文化。他们一方面极度技术导向,不断推进技术前沿;另一方面又高度客户导向。很多公司客户服务很好,但技术不够领先;也有很多公司技术很强,但客户服务很差。而台积电可贵的地方,是能同时把这两件事做到世界级。

第三,也是我最看重的一点,是信任。我相信他们能让我在他们面前“裸奔”——也就是说,我可以把公司最关键的信息、最关键的计划、最关键的路线图放在他们面前,而不担心被滥用。这种信任极其重要。

莱克斯·弗里德曼:这是一种建立在多年合作基础上的深度关系。

黄仁勋:三十年来,我们通过台积电完成了难以计数的、总值数百亿甚至数千亿美元的业务,而很多时候甚至没有正式合同。这就是彼此信任的力量。

莱克斯·弗里德曼:有个广为流传的故事:2013 年,张忠谋曾邀请你担任台积电 CEO,而你说你当时已经有工作了。这个故事是真的吗?

黄仁勋:是真的。我并不是轻率地拒绝,而是深感荣幸。台积电无疑是历史上最有影响力的公司之一,张忠谋也是我一生中最敬重的企业家之一。

但我当时非常清楚,NVIDIA 的未来会走向哪里,以及我们能够产生怎样的影响。而实现那一切,是我的责任,也是我唯一的责任。所以我没有接受,不是因为那份邀请不够有吸引力,而是因为我不能离开现在这份工作。

莱克斯·弗里德曼:你怎么看太空计算、太空数据中心这种想法?它或许有助于从能源角度解决一些规模化问题。

黄仁勋:真正不容易解决的是散热。不过有趣的是,NVIDIA 的 GPU 已经上过太空了。我们其实已经在做这件事,只是以前我自己都没太多拿它来说。

在太空里做大规模成像和边缘 AI 非常合理。卫星有高分辨率成像能力,会持续不断地扫描地球。如果你想获得厘米级分辨率、全球持续成像的遥测数据,那么数据量将是 PB 级别,你不可能全部传回地球。你必须在边缘做 AI,筛掉那些没有变化、不重要的内容,只保留真正有价值的信息。

当然,如果把 AI 系统部署在太空或极地,你能获得几乎持续的太阳能,但没有空气对流,也几乎没有传导,主要只能依靠辐射散热。所以,你可能需要非常巨大的散热器。

莱克斯·弗里德曼:你觉得这个想法有多疯狂?五年、十年、二十年后呢?

黄仁勋:我这个人比较务实。我会先解决眼前更近的机会,但与此同时,也会让工程团队提前去探索这些问题: 如何应对辐射?如何应对器件老化?如何持续检测缺陷?如何做冗余设计?如何实现优雅降级?软件如何适应太空环境?这些工程探索可以提前开始。但与此同时,我最喜欢的现实答案依然是:先把地球上那些被浪费的闲置电力用起来。

莱克斯·弗里德曼:你认为 NVIDIA 有一天会达到 10 万亿美元市值吗?换个问法:如果这是真的,那未来世界会是什么样子?

黄仁勋:我认为 NVIDIA 继续增长,不仅有可能,在我看来几乎是不可避免的。原因有两个根本性的技术变化。

第一,计算机已经从“基于检索的文件系统”演变为“基于生成的上下文系统”。过去的计算机,大量时候是在处理文件:人预先写好内容、录好内容、画好图,然后系统通过检索和推荐把这些内容给你。 而今天的 AI 计算机,必须理解上下文,必须实时生成 token。也就是说,我们已经从一个以存储和检索为核心的系统,转向了一个以实时生成和推理为核心的系统。在这个新世界里,所需处理能力远远大于旧世界。旧世界主要消耗存储,新世界主要消耗计算。

第二,计算机不再只是“仓库”,而开始变成“工厂”。仓库本身不直接创造收入,而工厂是创造产品和收入的。现在的 AI 工厂在生产的,就是人们愿意消费的智能产物——token。 而且这些 token 已经开始像智能手机一样发生分层:有免费的,有高级的,有中间层次的。这意味着“智能”本身,正变成一种可扩展、可分级、可定价的产品。

如果你把这两个变化放在一起,就会发现:世界会需要大量 AI 工厂;社会愿意为这些工厂产出的 token 付费; 如果生产力被显著提升,世界经济总量就会加速增长。而用于计算的 GDP 占比,也很可能比过去高出百倍,因为计算不再只是存储,而变成了“产品生产”。

从这个角度看,再回到 NVIDIA 的位置:我们所处的,正是一个全新的产业与经济模式的中心。所以我不觉得“年收入几万亿美元”在物理上有什么不可能。真正的问题不是“是否可能”,而是我们有没有足够的精力和执行力把它做出来。就这一点而言,我的答案是肯定的。

很多人过去都告诉过我:“无晶圆厂半导体公司不可能超过 10 亿美元市值。”“你们不可能超过 250 亿美元。” 但这些都不是基于第一性原理的推理。思考这类问题最好的方式是:我们生产什么?我们创造的机会有多大?

今天最大的难点在于,人们很难想象一个不是靠“抢市场份额”成长的公司会长到多大。如果你只是从别人的市场里抢 10%,大家很容易算账。 可 NVIDIA 所参与创造的很多市场,过去根本不存在。所以人们很难想象规模上限。。但我会继续思考、继续讲述、继续通过每一次 GTC 把这个未来描绘得更真实。总有一天,我们会实现它。对此我百分之百相信。

莱克斯·弗里德曼: 按你的说法,AI 工厂就是 token 工厂,而 token 本身就是一种有价值的产品。从第一性原理看,随着 AI 解决越来越多问题,未来显然需要指数级增长的 token 工厂。

黄仁勋:没错。而真正让我兴奋的是,“token 的 iPhone 时刻”已经来了。

莱克斯·弗里德曼: 你说的是智能体?

黄仁勋:对,广义上的智能体。在我看来,智能体就是 token 世界的 iPhone。它是历史上增长最快的应用类别一,增长速度惊人。这说明了一些非常重要的事情。 所以我完全相信,智能体就是 token 时代的 iPhone。

莱克斯·弗里德曼:关于 AGI,定义不同,时间线也不同。我想给一个有点极端的定义:如果一个 AI 系统能创办、发展并运营一家成功的科技公司——比如一家价值超过 10 亿美元的公司——那它算不算 AGI?按这个标准,你觉得还要 5 年、10 年、15 年还是 20 年?

黄仁勋:我认为,在某种意义上,我们已经实现了 AGI。

莱克斯·弗里德曼:你是说,你已经能想象一家由 AI 运营的公司?

黄仁勋:有可能。因为你说的是“做出一家价值十亿美元的公司”,并不意味着它必须永远持续伟大。

举个例子,像 Claude 这类系统,完全有可能做出一个网络服务、一个有趣的小应用,突然之间被几十亿人以很低价格使用,从而迅速形成巨大的商业价值,随后又很快衰退。互联网时代其实出现过很多类似公司,而其中大量网站和产品的复杂度,并不比今天先进模型能生成的东西高多少。

莱克斯·弗里德曼:也就是说,先做出病毒式传播产品并实现商业化,这件事 AI 已经接近能做了。

黄仁勋:对。我不知道具体会是什么,但如果未来出现某种超级可爱的数字形象、某个社交应用、某种电子宠物产品,在几个月里爆红,我一点也不会惊讶。不过,要说十万个这样的“爆款代理”最终能成长成 NVIDIA,那概率几乎为零。这两件事不是一个难度层级。

黄仁勋的个人思考time

莱克斯·弗里德曼:你曾说过,你的成功很大程度上来自于比别人更努力,也更能承受苦难。可你现在面对的,不仅是工程和商业层面的压力,还有一种国家级、全球级的责任:许多国家都围绕 NVIDIA 来制定 AI 战略和基础设施规划。你如何承受这种压力?

黄仁勋:我非常清楚,NVIDIA 的成功对美国意义重大。它带来了巨额税收,强化了美国的技术领先,而技术领先本身就是国家安全的重要组成部分。不仅如此,繁荣还能反过来提升国内政策空间和社会福利。我们也确实在推动再工业化,在芯片、计算机、AI 工厂等多个环节带回美国,创造了大量就业。我也知道,有许多普通投资者、教师、警察等群体,因为相信 NVIDIA、持有 NVIDIA,改变了自己的生活。这是一份很重的责任。同时,我们背后还有一个庞大的生态系统和供应链伙伴网络,许多人都与 NVIDIA 的发展息息相关。

那我怎么处理这些?方法其实就是我刚才说过的:分析它、拆解它。发生了什么?有什么变化?困难是什么?我打算怎么做?我把问题拆成可以处理的小部分。然后问自己:你做了吗?如果你认为你应该做,却既没自己做,也没找别人做,那就别抱怨。就这么简单。

我对自己要求很高。但我也会把事情分解到足够小,这样自己就不会陷入恐慌。我之所以能睡觉,是因为我已经把必须做的事列出来,也确保那些可能危及公司、合作伙伴和行业的问题,都已经告诉了相关的人,而且告诉了能够解决它们的人。在那之后,你还能做什么呢?

莱克斯·弗里德曼:在 NVIDIA 的历程中,你是否经历过情绪上的低谷?

黄仁勋:当然。一直都有。

莱克斯·弗里德曼:那你也是靠把问题拆小来应对?

黄仁勋:这是其中一部分。另一部分,其实是“遗忘”。AI 学习里有个很重要的概念,叫系统性遗忘。我觉得人也一样。你得知道什么时候该忘掉一些东西。你不可能永远背着所有挫折往前走,也不应该这样。所以我会快速拆解问题、思考问题,然后把负担分出去——也就是尽快告诉别人,让他们参与进来。不要把它憋在心里。

当然,你也得对自己狠一点。有时候就是得告诉自己:别哭了,继续走。而且很多时候,你会被“下一个机会、下一个闪光点、下一个未来”吸引过去。上一件事已经过去了。伟大的运动员也一样,他们只在意下一分。

莱克斯·弗里德曼:你有一句非常有名的话:如果你一开始就知道创办 NVIDIA 会有多难——比你想象的难一百万倍——你可能根本不会去做。但仔细想想,也许所有值得做的事都如此。

黄仁勋:没错。而且我想补充一点:保持一种“孩童般的思维”,是一种不可思议的超能力。

因为当我看到一个新问题时,我的第一反应往往是:“这能有多难?”于是你就进入那个模式:这能有多难?即使从客观上看,它规模巨大、成本惊人、前所未有,你还是会本能地觉得:好吧,但这到底能有多难?

你不能提前把所有挫折、痛苦、失望、羞辱都完整模拟一遍。如果你真的这么做了,可能根本不会开始。你必须带着一种新鲜的心态走进去,相信它会是完美的、有趣的、值得的。然后,当真正的挫折、失望、尴尬、羞辱降临时,你再调动另一套能力:韧性、遗忘、继续前进。只要我对未来的根本判断没有被推翻,那么我就相信那个未来仍然会发生。既然如此,我就继续追。

莱克斯·弗里德曼:你现在是世界上最成功、最富有的人之一。财富、权力和名望,会不会让人更难承认错误,更难倾听不同意见?

黄仁勋:很意外,但对我来说不是。甚至在某种意义上恰恰相反。因为我的很多工作是在公开场合完成的,所以如果我犯错,几乎所有人都会看到。我在公开场合说的大多数话,都会很谨慎,因为它们会影响别人。

但与此同时,我的管理方式就是不断在众人面前“思考”。即便现在和你对话时,你也能感觉到,我是在边说边推理。因为我希望你理解我的结论,不是因为我强行告诉你答案,而是因为我把自己推导出结论的过程展示给你看。

我在会议里天天都是这么做的。“让我告诉你我是怎么想的。”然后我开始一步步推理。这样一来,别人不需要直接反对我的结论,他们可以在推理过程中的某一步提出不同看法,进而把我引向一个新的结论。这是一种非常有效的集体探索方式。

莱克斯·弗里德曼:你在解释问题时,始终给人一种开放、即兴推理的感觉,好像旁边的人真的可以影响你的思路。我觉得这非常难得。很多人经历成功和痛苦后,反而会越来越封闭。

黄仁勋:我觉得,关键之一就是对尴尬的容忍。而且,他们都知道我最早的一份工作是打扫厕所。所以,很多事情自然也就没那么严重了。

莱克斯·弗里德曼:你这番话会让很多人兴奋,也会让很多人紧张。你怎么看程序员和软件工程师的未来?

黄仁勋:首先,我想提醒大家:工作目标、工作任务和工作工具,是相关但不同的三件事。我担任这份工作已经 30 多年了,在这 30 多年里,我使用的工具一直在变化,有时甚至每两三年就完全不同。但我的“工作目标”并没有变。

多年前,计算机科学家和 AI 研究人员预测,第一个会消失的职业会是放射科医生。因为计算机视觉会达到超人水平,而事实是,它确实做到了。到 2019、2020 年左右,计算机视觉在很多识别任务上已经超越了人类。

于是人们说,放射科医生会消失。结果呢?今天所有放射平台都用了 AI,但放射科医生的数量反而在增长,而且全球仍然短缺。为什么?因为放射科医生的职责不是“看影像”本身,而是帮助诊断疾病、服务患者和医生。正因为 AI 让他们能更快分析更多扫描,他们才可以接触更多病人、做出更准确判断、帮助医院提升效率。医院业务增加,于是反而需要更多放射科医生。

软件工程师也是一样。我希望 NVIDIA 的软件工程师越来越多,而不是越来越少。因为他们的真正工作不是“写代码”本身,而是解决问题、团队合作、诊断、评估、发现新问题、创新和整合。代码只是其中一项任务,不是工作的全部。

莱克斯·弗里德曼:所以你认为,程序员总数甚至可能会增加?

黄仁勋:我认为会。因为今天“编码”的定义,正在变成“描述规范、定义意图、告诉计算机要构建什么”。如果这样理解编程,那么未来能做“编程”的人会从今天的几千万,扩大到十亿级。

未来每个木匠都可能是程序员,只不过他手里的工具变成了 AI,他同时也是架构师。他能为客户创造的价值会大得多。每个会计师也会同时成为你的财务分析师和顾问。所有职业都会被提升,而不只是被替代。

莱克斯·弗里德曼:即便如此,很多人依然合理地焦虑自己的工作前景。每次大规模技术变革都会带来痛苦和冲击,我们也必须对这些痛苦保持同情。

黄仁勋:完全同意。而我的第一个建议,和我自己处理焦虑的方法一样:把问题拆解开。你担心未来,那就先问:哪些事情我能做,哪些事情我控制不了?对那些你能做的事情,就认真思考,然后立刻行动。

如果今天我要招聘一名应届毕业生,有两个候选人:一个不懂 AI,另一个熟练掌握 AI。无论岗位是会计、营销、供应链、客户服务、销售、法务还是业务拓展,我都会选后者。所以,我给所有学生、老师和从业者的建议都是:去学习 AI,去使用 AI,让自己成为 AI 专家。无论你是木匠、电工、农民、药剂师,都应该去看看 AI 如何改变你的工作、提升你的技能、让你成为行业创新者。

当然,这项技术也一定会取代某些工作,特别是那些工作内容高度等同于固定任务执行的岗位。如果你的价值只是重复完成某个任务,那么你确实会受到冲击。但如果你能学会用 AI 把这些任务自动化,同时把自己提升到更高层次,那你就站在了正确的一边。

莱克斯·弗里德曼:而且 AI 最棒的一点是,你甚至可以直接问它:“我该怎么学 AI?” 它会一步步教你。

黄仁勋:没错。你不能走到 Excel 面前说:“我不会用 Excel,请教我。”但 AI 可以。这是一个很重要的变化。

莱克斯·弗里德曼:你认为在人类意识中,是否存在某种本质上无法被计算复制的东西?

黄仁勋:我不知道芯片会不会紧张。我相信 AI 可以识别、理解焦虑、兴奋、紧张这些情绪,但我不认为芯片本身会真正“感受”它们。在人类世界里,即使处在相同条件下,不同的人也会因为不同的主观状态而表现出完全不同的结果,这构成了人类表现的光谱。而我们今天构建的系统,不会因为“感受不同”而在相同上下文中表现不同。

莱克斯·弗里德曼:是啊。人类的主观体验太特别了:爱、恐惧、希望、心碎、对死亡的恐惧、亲人离世时的痛苦。我很难想象计算装置能够拥有这些。但同时,过去这些年 AI 也一直在给我们惊喜,所以我也愿意保持开放。

黄仁勋:我觉得一个非常重要的区分是:什么是“智能”,什么是“人性”。智能这个词并不神秘,它指的是一个系统具备感知、理解、推理和计划能力。这就是智能。但人性远远不止这些。人性不是一个功能性概念。

我其实一直认为,智能会商品化。我身边有很多比我聪明得多的人,他们学校比我好、知识比我深、在各自领域都比我强。我的 60 个直接下属,在我眼里个个都是超人。但问题是:为什么一个曾经洗碗、打扫厕所的人,最终能坐在他们中间协调他们?这恰恰说明,成功不只是智力问题。

人性还包括品格、同情心、慷慨、对痛苦的承受能力、决心、领导力。这些东西,比智能更宽广。所以,如果我想给听众一个清晰结论,那就是:不要把“智力的民主化、商品化”理解成对人的贬值。恰恰相反,你应该从中获得力量。因为真正值得被赞美和提升的,是人性本身。

莱克斯·弗里德曼:我们真正应该崇敬的,也许不是“智能”,而是“人性”。

黄仁勋:对,人性、品格、同情心、慷慨。这些才是真正超人的力量。

(来源:新浪科技)



用户登录