《科创板日报》10 月 3 日讯,AI 时代,存储芯片已从配角跃升为核心瓶颈与突破口。随着大模型参数规模与训练数据量的爆炸式增长,传统内存技术已成为制约算力发挥的 「内存墙」,而 HBM 凭借其超高带宽、低功耗和小体积特性,正成为 AI 芯片的主流选择。
全球科技巨头纷纷将 HBM 作为战略要地。
在日前的财报会上,美光特别强调,预计半导体芯片、特别是 HBM 的供不应求情况将会加剧。公司 CEO Sanjay Mehrotra 透露,当前半导体存储领域,DRAM 库存已低于目标水平,NAND 库存持续下滑;而 HBM 产能需求增长显著,产能已被锁定,预计 2026 年 HBM 出货量增速将超过整体 DRAM 水平,成为半导体存储板块的核心增长驱动力。
具体 HBM 产品中,美光表示,已与几乎所有客户就 2026 年绝大部分 HBM3E 产能达成定价协议;公司正在与客户就 HBM4 进行讨论,供应 「非常紧张」。
此外,华为也在近期宣布,自昇腾 950PR 开始,昇腾 AI 芯片将采用华为自研的 HBM。其中,昇腾 950 搭载自研的 HBM HiBL 1.0;昇腾 950DT 升级至 HBM HiZQ 2.0。
▌为什么是 HBM?
为何存储需求热潮中,「特别是 HBM 的供不应求情况或将加剧」?
华尔街分析师指出,定制化 HBM(cHBM) 已经从曾经的被动元件转变为具备逻辑算力的主动部件,重塑存储的角色。在这种情况下,AI 基建中,存储总体拥有成本 (TCO) 不断上升。
定制化 HBM 可以集成不同功能、运算能力与逻辑 Die 设计,例如 LPDDR 与 HBM 并行工作,在 HBM 堆栈中加入计算逻辑,成为性能差异化的关键。
目前,存储厂商已开始提供覆盖 HBM、逻辑 die、LPDDR、PIM 等的全栈解决方案,并与客户开展定制化 HBM 合作。
同时随着 AI 能耗的增加,存储厂商也开始强调 HBM 在节能上的价值。SK 海力士预测称,HBM 能效每改善 10%,可带来单机架 2% 的节能效果,对系统级节能有重大意义。
▌AI 推理将迎 「十倍增长」 「以存代算」 技术 「虎视眈眈」
以 HBM 为首的存储需求陡增背后,是 AI 推理的飞速崛起。
黄仁勋在最新采访中,重申了对 AI 推理的信心。他再次强调,AI 推理将迎来十亿倍增长。推理的量级已不是过去的 「一次性回答」,而是逐步演进的 「先思考再作答」 的动态生成,思考得越久,答案质量越高。
券商指出,人工智能技术的蓬勃发展推动大模型训练走向规模化,但真正创造持续商业价值的 核心环节在于推理过程。AI 推理算力需求正迅速超越训练,成为成本与性能的关键瓶颈。
在这一背景下,内存受益于超长上下文和多模态推理需求,处理大量序列数据或多模态信息时,高带宽于大容量内存可降低访问延迟、提升并行效率。
广发证券指出,随着 AI 推理应用快速增长,对高性能内存和分层存储的依赖愈发显著,HBM、DRAM、SSD 及 HDD 在超长上下文和多模态推理场景中发挥关键作用,高带宽内存保障模型权重和激活值的高速访问,SSD 满足高频读写与短期存储需求,HDD 提供海量长期存储支持。随着 AI 推理需求快速增长,轻量化模型部署推动存储容量需求快速攀升,预计未来整体需求将激增至数百 EB 级别。
但值得留意的是,「HBM 供不应求情况加剧」 的另一面,是供应瓶颈下可能出现的 「技术替代」——「以存代算」。
天风证券认为,「以存代算」 技术通过将 AI 推理过程中的矢量数据 (如 KV Cache) 从昂贵的 DRAM 和 HBM 显存迁移至大容量、高性价比的 SSD 介质,实现存储层从内存向 SSD 的战略扩展,而非简单替代。其核心价值在于显著降低首 Token 时延、提升推理吞吐量,并大幅优化端到端的推理成本,为 AI 大规模落地提供可行路径。分析师进一步指出,QLC+PCIe/NVMe+CXL 有望构筑下一代 AI SSD 基座,推动 SSD 从单纯存储介质,升级为 AI 推理 「长期记忆」 载体。