英伟达和AMD的下一代人工智能GPU将主要搭配HBM3内存
前瞻报告指出,下一代高性能内存技术——HBM3及HBM3e,正在引领人工智能GPU市场的新一轮变革。随着企业界对集成DRAM技术的兴趣日益浓厚,这一趋势愈发明显。现有的英伟达旗舰产品A100和H100 GPU已分别采用了HBM2e和HBM3技术,这两款产品分别于2018年和2020年面世。
在众多制造商中,美光、SK海力士以及三星正全力研发,为大规模生产速度更快的新型HBM3内存做准备。值得注意的是,不久之后,这一技术将成为新的行业标准。
关于HBM3的细节,有一个鲜为人知的亮点。TrendForce强调,这种内存将以多种形式出现。低端版本将以5.6至6.4 Gbps的速度运行,而高端版本的速度将超过8 Gbps,高端型号还将有诸如"HBM3P、HBM3A、HBM3+和HBM3 Gen2"的命名。
预测显示,HBM行业的市场份额将迎来显著增长,而SK海力士已在这一领域取得领先地位。未来的AMD MI300 Instinct GPU和英伟达H100 GPU都将采用先进的HBM3技术。尤其值得关注的是,SK海力士已经走在前列,现已进入制造阶段,并收到来自英伟达等公司的样品请求。
尽管美光已公布其未来的HBM4设计蓝图,但这仍需等到遥远的2026年。预计在未来几年内,即将推出的英伟达Blackwell GPU(代号为GB100)很可能会采用速度更快的HBM3变体。而采用第五代工艺技术(10纳米)的HBM3E内存也预计在2024年上半年开始量产,三星和SK海力士等制造商都在为生产做好准备。
SK hynix已经率先推出了12层结构的HBM3内存,每层容量高达24 GB,并已向客户提供样品。与此三星和美光等竞争对手也在积极追赶。据传,三星正在与英伟达紧密合作,为其提供晶圆和内存采购建议。美光则与台积电携手,成为英伟达GPU的内存供应商。随着人工智能产业的快速发展和竞争的不断加剧,这些技术革新将推动整个行业的创新步伐。