站稳AI存储C位?HBM紧缺恐成定局 但这一技术正“虎视眈眈”

2025年10月03日,15时36分40秒 机构观点 阅读 3 views 次

AI时代,存储芯片已从配角跃升为核心瓶颈与突破口。随着大模型参数规模与训练数据量的爆炸式增长,传统内存技术已成为制约算力发挥的“内存墙”,而HBM凭借其超高带宽、低功耗和小体积特性,正成为AI芯片的主流选择。

全球科技巨头纷纷将HBM作为战略要地。

在日前的财报会上,美光特别强调,预计半导体芯片、特别是HBM的供不应求情况将会加剧。公司CEO Sanjay Mehrotra透露,当前半导体存储领域,DRAM库存已低于目标水平,NAND库存持续下滑;而HBM产能需求增长显著,产能已被锁定,预计2026年HBM出货量增速将超过整体DRAM水平,成为半导体存储板块的核心增长驱动力

具体HBM产品中,美光表示,已与几乎所有客户就2026年绝大部分HBM3E产能达成定价协议;公司正在与客户就HBM4进行讨论,供应“非常紧张”。

此外,华为也在近期宣布,自昇腾950PR开始,昇腾AI芯片将采用华为自研的HBM。其中,昇腾950搭载自研的HBM HiBL 1.0;昇腾950DT升级至HBM HiZQ 2.0。

站稳AI存储C位?HBM紧缺恐成定局 但这一技术正“虎视眈眈”

▌为什么是HBM?

为何存储需求热潮中,“特别是HBM的供不应求情况或将加剧”?

华尔街分析师指出,定制化HBM(cHBM)已经从曾经的被动元件转变为具备逻辑算力的主动部件,重塑存储的角色。在这种情况下,AI基建中,存储总体拥有成本(TCO)不断上升。

定制化HBM可以集成不同功能、运算能力与逻辑Die设计,例如LPDDR与HBM并行工作,在HBM堆栈中加入计算逻辑,成为性能差异化的关键。

目前,存储厂商已开始提供覆盖HBM、逻辑die、LPDDR、PIM等的全栈解决方案,并与客户开展定制化HBM合作。

同时随着AI能耗的增加,存储厂商也开始强调HBM在节能上的价值。SK海力士预测称,HBM能效每改善10%,可带来单机架2%的节能效果,对系统级节能有重大意义。

▌AI推理将迎“十倍增长” “以存代算”技术“虎视眈眈”

以HBM为首的存储需求陡增背后,是AI推理的飞速崛起。

黄仁勋在最新采访中,重申了对AI推理的信心。他再次强调,AI推理将迎来十亿倍增长。推理的量级已不是过去的“一次性回答”,而是逐步演进的“先思考再作答”的动态生成,思考得越久,答案质量越高。

券商指出,人工智能技术的蓬勃发展推动大模型训练走向规模化,但真正创造持续商业价值的核心环节在于推理过程。AI推理算力需求正迅速超越训练,成为成本与性能的关键瓶颈。

在这一背景下,内存受益于超长上下文和多模态推理需求,处理大量序列数据或多模态信息时,高带宽与大容量内存可降低访问延迟、提升并行效率。

广发证券指出,随着AI推理应用快速增长,对高性能内存和分层存储的依赖愈发显著,HBM、DRAM、SSD及HDD在超长上下文和多模态推理场景中发挥关键作用,高带宽内存保障模型权重和激活值的高速访问,SSD满足高频读写与短期存储需求,HDD提供海量长期存储支持。随着AI推理需求快速增长,轻量化模型部署推动存储容量需求快速攀升,预计未来整体需求将激增至数百EB级别。

但值得留意的是,“HBM供不应求情况加剧”的另一面,是供应瓶颈下可能出现的“技术替代”——“以存代算”。

天风证券认为,“以存代算”技术通过将AI推理过程中的矢量数据(如KV Cache)从昂贵的DRAM和HBM显存迁移至大容量、高性价比的SSD介质,实现存储层从内存向SSD的战略扩展,而非简单替代。其核心价值在于显著降低首Token时延、提升推理吞吐量,并大幅优化端到端的推理成本,为AI大规模落地提供可行路径。分析师进一步指出,QLC+PCIe/NVMe+CXL有望构筑下一代AI SSD基座,推动SSD从单纯存储介质,升级为AI推理“长期记忆”载体。

(来源:天天基金网)



用户登录