首页 行业研报 半导体:英伟达“Rubin”确认搭载HBM4,HBM加速迭代升级

半导体:英伟达“Rubin”确认搭载HBM4,HBM加速迭代升级

行业研报 73

  投资要点

  2024年6月2日,黄仁勋宣布下一代AI平台“Rubin”将集成HBM4内存,预计于2026年发布。

  “Rubin”确认搭载HBM4,存力成为重要升级方向

  北京时间2024年6月2日,英伟达(NVIDIA)CEO黄仁勋在COMPUTEX2024大会上发表主题为“开启产业革命的全新时代”的演讲,宣布Blackwell芯片已开始投产,其增强版BlackwellUltraGPU芯片预计于2025年推出;下一代数据中心GPU架构名为“Rubin”,将集成HBM4内存,RubinGPU和RubinUltraGPU预计分别于2026年和2027年发布。

  存力是英伟达AI产品的重要升级方向。基于Hopper架构的H200发布于2023年11月,搭载了6颗HBM3E芯片,容量为141GB,带宽为4.8TB/s。时隔仅4个月,英伟达发布了新一代GPU架构——Blackwell;BlackwellGPU搭载了8颗8层HBM3E芯片,容量达192GB,带宽高达8TB/s,现已开始投产;其增强版BlackwellUltraGPU芯片预计于2025年推出,将搭载8颗12层HBM3E芯片。英伟达计划于2026年推出名为“Rubin”的下一代数据中心GPU架构。基于Rubin架构的RubinGPU将配备8个HBM4芯片;其增强版RubinUltraGPU将集成12颗HBM4芯片,预计于2027年推出,这也是英伟达首次在其AI半导体芯片中使用12颗HBM芯片。

  三大原厂加速HBM迭代,推动产业链配套升级

  美光、SK海力士和三星三大存储原厂于2024年相继实现HBM3E的量产,同时加速推进HBM4的研发工作。

  美光:2024年2月,美光宣布量产HBM3E,并将搭载于NVIDIAH200TensorCoreGPU。该产品单引脚最大I/O速率超9.2Gbit/s,最高带宽超1.2TB/s,层数为8层,容量为24GB。此外美光还提供容量为36GB的12层堆叠HBM3E样品。美光计划于2026年发布HBM4产品,最高带宽超1.5TB/s,容量为36GB~48GB,堆叠层数达到12/16层。美光预计2028年推出HBM4E产品,容量将提升至48GB~64GB,带宽增加至2TB/s以上,而堆叠层数仍为12/16层。

  SK海力士:2023年8月,SK海力士宣布成功开发出HBM3E,单引脚最大I/O速率为9.2Gbit/s,层数为12层,最高带宽超1.18TB/s;同时该产品采用了MR-MUF技术,散热性能提升10%。2024年3月,SK海力士宣布HBM3E已开始量产。2024年4月,SK海力士宣布将与台积电合作开发HBM4产品。SK海力士表示,应大客户要求,HBM开发进度将提前一年,预计于2025年完成HBM4的开发;HBM4E最早于2026年推出,内存带宽将是HBM4的1.4倍。

  三星:2023年10月,三星推出其HBM3E产品——“Shinebolt”,单引脚最大I/O速率高达9.8Gbit/s,同时提供1.2TB/s的高带宽。根据Wccftech消息,8层HBM3E已于2024年4月量产,容量高达36GB的12层HBM3E计划于24Q2实现量产。在ISSCC2024上,三星公布了其HBM4的研究成果,最高带宽达2TB/s,并通过16层堆叠实现48GB容量,计划于2025年推出。

  我们认为,以英伟达为代表的AI芯片厂商正加快开发周期,作为AI芯片最强辅助的HBM也在加速迭代,推动HBM产业链持续配套升级的同时带来新需求。

  投资建议:建议关注HBM产业链相关标的:1)封测环节:通富微电(先进封装)、长电科技(先进封装)等;2)设备环节:拓荆科技(PECVD+ALD+键合设备)、华海清科(减薄+CMP)、华卓精科(拟上市,键合设备)、芯源微(临时键合与解键合)等;3)材料环节:华海诚科(环氧塑封料)、天承科技(RDL+TSV电镀添加剂)、艾森股份(先进封装电镀)等。

  风险提示:行业与市场波动风险,国际贸易摩擦风险,新技术、新工艺、新产品无法如期产业化风险,产能扩张进度不及预期风险,行业竞争加剧风险。