HBM是AI时代的必需品。
作者 | 赤道以北
编辑 | 小白
HBM(High Bandwidth Memory)在AI服务器中非常重要,主要因为其高带宽、低延迟和高性能的特点。
HBM芯片是大规模人工智能训练和推理的重要组成部分,需求旺盛。HBM相比传统采用DRAM的方式,具有高带宽、高容量、低功耗和小尺寸四大优势,是AI时代不可或缺的产品,已逐步成为AI加速卡(GPU、TPU等)的搭载标配。根据TrendForce,基于三星、海力士和美光的出货口径,2023年全球HBM产业收入为43.5亿美元,预计2024年快速增长至183亿美元,同比涨幅超过300%。
在HBM领域,国内受制于DRAM和先进封装量产工艺,国产化率几乎为0,国内企业尚无大规模量产产品,HBM生产目前仍由海外三大家(三星、海力士和美光)垄断。海外高带宽存储器(HBM)实施新的管制,加速HBM国产化。一旦产品无法购买,势必将影响到我国AI服务器的搭建乃至整个AI的发展。
国内武汉新芯正在针对HBM建造月产能3000片晶圆工厂,该公司目前正在IPO问询中;长鑫存储开始量产HBM2。海外对华限制HBM,势必加速HBM扩产,利好HBM相关国产设备和材料厂商。