AI应用爆发促进了数据中心基础构架的发展,而HBM市场也将受益于此,据悉未来三年HBM的年复合增长率将超过50%。目前HBM技术最新已经发展到了HBM3e,而预期明年的大规模AI计算系统商用上,HBM3和HBM3e将会成为主流。
Aug. 1, 2023 ---- 根据TrendForce集邦咨询调查显示,2023年HBM(High Bandwidth Memory)市场主流为HBM2e,包含NVIDIA A100/A800、AMD MI200以及多数CSPs自研加速芯片皆以此规格设计。同时,为顺应AI加速器芯片需求演进,各原厂计划于2024年推出新产品HBM3e,预期HBM3与HBM3e将成为明年市场主流。
2023年7月27日,中国上海 —— Micron Technology Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)今日宣布,公司已开始出样业界首款8层堆叠的24GB容量第二代HBM3内存,其带宽超过1.2TB/s,引脚速率超过9.2Gb/s,比当前市面上现有的HBM3解决方案性能可提升最高50%。美光第二代HBM3产品与前一代产品相比,每瓦性能提高2.5倍,创下了关键型人工智能(AI)数据中心性能、容量和能效指标的新纪录,将助力业界缩短大型语言模型(如GPT-4及更高版本)的训练时间,为AI推理提供高效的基础设施,并降低总体拥有成本(TCO)。
面对数据中心多种多样的加速器IC,以及多种全新的内存技术,如何将两者完美结合实现高效安全的数据搬运?Rambus给出了答案。
关于HBM3的消息,海力士早前曾表示单芯片可以达到5.2Gbps的I/O速率,带宽达到665GB/s,将远超HBM2E。但从Rambus最新发布的HBM3内存子系统来看,数据传输速率达到了8.4Gbps,宽带达到1TB/s,说明HBM3还有着更大的潜力。而且作为集成了PHY和控制器的完整内存接口子系统,Rambus HBM3方案的推出也意味着HBM3的真正面世也将不远了。