OpenAI与DeepSeek,正在把AI竞争引入软硬协同阶段

2025年10月15日,06时53分14秒 科技新知 阅读 3 views 次

全球AI竞争正在走向模型与算力的协同,在这方面,OpenAI与DeepSeek分别在美国与中国扮演了最重要的角色。

OpenAI正在打造辐射硬件与软件的万亿美元AI平台。继采购英伟达与AMD芯片,部署10GW与6GW数据中心后,它终于官宣了与博通的合作。这款传闻已久的定制AI芯片,已经秘密设计了18个月,有望在2026年下半年投入使用,并于2029年底全面部署,整体规模高达10GW。

这款AI芯片为推理而生。按照参与该芯片设计的首位核心员工的说法,早在o1正式发布前的几个月内,即进入去年下半年,团队就已开始着手设计。期间,公司的模型团队与芯片团队,以及博通合作团队,就已经紧密协作起来,试图把智能的成本与延迟,一起压向零的边际。

事实上,OpenAI与博通的合作,已经超出了最初的设想。与其说它们在合作开发一款定制AI芯片,不如说它们在合作定制一整套完整的,能够直接塞到数据中心里的算力系统。据双方的声明,OpenAI负责设计芯片和系统整体架构,博通设计端到端的以太网、PCIe和光纤连接解决方案组合。

它还是一套协同创新的方法论,围绕OpenAI生态而生。OpenAI宣称将其“在开发前沿模型和产品过程中积累的经验直接嵌入到硬件中,从而释放更高水平的功能和智能”。博通也称,双方讨论的下一件事,是将算力从芯片的二维空间堆叠到三维空间,并将光学也引入其中。

这背后反映的是OpenAI正在打造一个自我闭环的模型+算力帝国。过去,OpenAI曾几次尝试让芯片厂商围着自己转。GPU紧缺和溢价已经成为了OpenAI的瓶颈;更要命的是,OpenAI越来越绑定在英伟达的CUDA体系内,无法迅速最大化地释放模型性能,也不会符合推理时代的token经济学。

由OpenAI 研究员创建的深度学习编译器Triton,最初兼容CUDA,然后逐步扩展到AMD ROCm等更多架构,让旗下模型能跨硬件运行。微软最初发布Maia 100,宣传的可是专为Azure平台设计,旨在运行生产级OpenAI模型。在初版“星门项目”的蓝图里,OpenAI更愿意使用以太网,希望避免使用InfiniBand。

OpenAI的野心是构筑自己的万亿美元AI商业生态。这次OpenAI开发者日,奥特曼展示了ChatGPT Apps SDK、AgentKit等,相当于要让ChatGPT成为新的操作系统。但当天在接受Stratechery采访时,奥特曼却声称,自己现在花时间最多的地方,是基础设施。

这呼应了Groq创始人Jonathan Ross的最近的观点。谁掌控算力,谁才真正掌控AI,“自己造芯片,并不只是拥有一颗芯片,真正意义是你把命运掌握在自己手里”。

去年初,奥特曼提出的7万亿美元AI基础设施计划遭到所有人的嘲笑与质疑,如今,奥特曼计划在2033年就将算力规模提升到惊人的250GW,差不多就要对应超过10万亿美元资金。

OpenAI的星门计划之上,正在构筑出全球芯片星际舰队:英伟达、AMD、博通、英特尔(通过英伟达),还包括ARM、三星、海力士等。

ARM已经深度介入,为OpenAI与博通的定制AI芯片,开发一款高度适配的专用CPU架构。有意思的是,ARM是软银的子公司,而软银又是OpenAI的股东与客户。软银签下的其中一份订单,就是从OpenAI购买技术,以帮助ARM缩短芯片开发周期。这次OpenAI与博通合作,OpenAI联合创始人Greg Brockman就宣布了AI设计AI芯片这一噱头。

资本市场正在酝酿“内存超级周期”,无论是DRAM、NAND还是HDD,首次同时面临短缺。DRAM是制造HBM的基础,HDD是储存Sora生成的视频的最廉价的储存介质,而NAND的未来将是有望取代HBM市场地位的HBF。OpenAI已经开始与三星和SK海力士合作开发AI芯片内存。

而在中国开启算力生态软硬件协同的关键角色是DeepSeek。此前疯传的《AI 2027》报告,虚构了美国公司OpenBrain与中国公司DeepCent之间的竞争,决定了智能体的未来。它们映射的正是现实世界的OpenAI与DeepSeek,以及各自所引领的AI生态。

DeepSeek创始人梁文锋很早就认为,中国的AI发展缺乏硅谷的软硬件协同生态,“很多国产芯片之所以发展受限,是因为缺乏配套的技术社区,往往只能获得第二手信息。” 没有前沿大模型的协同,闭门造不出好芯片。

自去年以来,DeepSeek对外公布了自己的代码,还在陆续发表的论文里“指导”中国硬件厂商前来适配,设计出未来芯片的架构,包括突破CPU与GPU通信瓶颈与更智能化的互联网络。从魔改PTX到使用UE8M0 FP8 Scale的参数精度,DeepSeek先榨取英伟达GPU算力,再牵引国产算力生态的演进。

近期,DeepSeek-V3.2-Exp更新,作为实验性版本,它不仅探索了新的稀疏注意力机制,也在推动中国算力生态的协同创新与格局演进。该模型的开发,用到了一款“土生土长”的新型编程语言TileLang,将是替代目前主流的OpenAI 领域特定语言(DSL)Triton的有力备选,已经扩展支持多款国产芯片。

该模型发布后,华为昇腾和寒武纪均第一时间宣布完成适配工作,加上海光、昆仑芯、沐曦等的深度适配,意味着国产AI算力生态的软硬件协同,已经进入实战阶段。

尽管DeepSeek目前仍然是一家AGI实验室,但它的技术信仰仍然需要强大的算力支持。可以预见的将来,它会别英伟达GPU;让中国头部芯片厂商同步适配自己,相当于也“掌握了自己的命运”。开源与分享正在成为中国创新的公共品,模型与芯片厂商可以更快速地验证设计方向,尽量减少协同成本。

围绕OpenAI的生态是封闭的。源自这一体系的创新,将会通过硬件合作伙伴,部分或间接地外溢至其他模型层以及应用层企业。但更多的仍然是锁定在OpenAI自己的技术黑箱与价值体系之内。

中国与美国的AI竞争,正在从算力与模型的单打独斗,收敛到软硬件协同的开源与闭源的竞争。狂热的资金仍在继续涌入。在美国,已经从产业资本迈向金融资本下场的新阶段;在中国,无论是芯片还是模型,厂商数量众多,各地建设热火朝天,力争把算力变成生产力。

(来源:新浪科技)



用户登录