HBM

事件:2023 年 11 月 13 日,英伟达发布了最新一代 AI 芯片 H200,旨在培训 和部署各种 AI 模型。H200 是全球首款搭载 HBM3e 的芯片,HBM 产品迭代 速度加快。

英伟达发布新一代 AI 芯片 H200:H200 芯片是当前用于训练最先进大语 言模型 H100 芯片的升级产品,更加擅长“推理”。用于推理或生成问题答 案时,性能较 H100 提高 60%-90%。借助 HBM3e,英伟达 H200 以每秒 4.8TB 的速度提供 141GB 的内存,与 A100 相比,容量几乎是其两倍,带宽增加了 2.4 倍,预计于 2Q24 出货。H200 与 AMD 的 MI300X GPU 展 开竞争。与 H200 类似,AMD 的芯片比其前身拥有更多的内存。

AI 芯片首度搭载 HBM3e:伴随大模型训练渐进,充沛的存力为推理助 力。相较 A100/H100,H200 HBM 容量增加 76%。同时 HBM3e 为业内最 先进产品内存,将实现高达 8 Gbps/pin 的速度。据韩媒 businesskorea 报 道,2023 年以来,三星电子和 SK 海力士 HBM 订单一直在激增。与其 他 DRAM 相比,HBM 通过垂直连接多个 DRAM 显著提高了数据处理 速度。HBM 与 CPU 和 GPU 协同工作,可以极大地提高服务器的学习和 计算性能。

长期空间广阔短期供应不足,巨头争相布局争夺高性能计算领导权:SK 海力士副会长兼联席 CEO 朴正浩透露,今年海力士 HBM 芯片出货量为 50 万颗,预计到 2030 年将达到每年 1 亿颗。集邦咨询指出,2023 下半 年伴随 NVIDIA H100 与 AMD MI300 的搭载,三大原厂也已规划相对应 规格 HBM3 的量产。其中,在今年将有更多客户导入 HBM3 的预期下, SK 海力士作为目前唯一量产新世代 HBM3 产品的供应商,其整体 HBM 市占率可望藉此提升至 53%,而三星、美光则预计陆续在今年底至明年 初量产,HBM 市占率分别为 38%及 9%。

概念股
公司颗粒状环氧塑封料用于HBM的封装,应用于HBM的材料已通过部分客户认证。
深科技 000021
存储封测
HBM(高带宽存储芯片,配套算力底座GPU)将数个DRAM裸片堆叠起来与数据中心GPGPU配合工作。公司具备8层和16层DRAM堆叠工艺,有望切入HBM封装。
SK海力士的大陆云服务存储的唯一代理商
子公司联合创泰是SK海力士的代理商,向 SK 海力士采购的产品为数据存储器。
光刻胶、特种气体
子公司UPChemical是韩国存储芯片龙头SK海力士核心供应商
硅微粉
环氧塑封料
壹石通 688733
存储芯片封测的low-a球铝(GMC、EMC)材料供应商
先进封装
公司目前产品已经进入海外头部晶圆厂HBM产线中
子公司苏州芯测电子收购的GIS是海力士HBM存储测试设备核心供应商。目前产品也在长鑫长存送样验证中。
创益通 300991
高速存储连接器龙头,美光和海力士都是用CXL来连接HBM和GPU/CPU。
嵌入式CPU
芯片数字经济正在研究规划合封多HBM内存的2.5D的芯片封装技术。