FX168财经报社(北美)讯 整个2023年,对AI GPU和所有AI的需求永无止境,HBM内存制造商的HBM芯片平均售价大幅上涨500%。对于HBM制造商美光、三星和SK海力士来说,这还不错。
(图源:TrendForce)
HBM芯片是AI GPU最重要的部分之一,AMD和NVIDIA等公司都在各自的AI GPU上使用了最先进的HBM内存。市场研究公司Yole Group现在也加入进来,预测从2023年到2028年,HBM供应量将以45%的复合年增长率增长,考虑到扩大规模的难度,HBM价格预计将在“一段时间内”保持高位提高HBM产量以满足疯狂的需求。
三星和SK海力士是HBM内存制造业务的主导者;韩国公司占据了90%的HBM市场份额,只剩下美光了。SK海力士和台积电正在合作,所以你会得到一些有趣的进展,随着时间的推移,这些进展将继续下去。
SK 海力士最近透露,其下一代HBM4内存将于2026年量产,为NVIDIA即将推出的Blackwell B100 AI GPU之外的下一代AI GPU做好准备。HBM不会停止,也不会停止……作为 AI GPU 的关键部分,AI GPU制造商想要(和需要)的不仅仅是快速HBM,而且需要更大的容量。
NVIDIA即将推出的H200 AI GPU将配备高达141GB的HBM3e内存,而H100则配备80GB的HBM3内存。AMD的全新Instinct MI300X AI GPU配备192GB的HBM3内存,NVIDIA拥有更快的HBM3e,但AMD拥有更多的VRAM(192GB与141GB)。
无论哪家公司采用HBM4,它都将是一个巨大的飞跃——NVIDIA在Blackwell之后的AI GPU上怎么会不使用它——而且它会变得疯狂。
SK海力士最近在去年底调侃其HBM4内存,称开发将于2024年开始,GSM团队负责人Kim Wang-soo解释道:“计划于明年大规模生产和销售HBM3E,我们的市场主导地位将再次最大化随着后续产品HBM4的开发也计划正式启动,SK海力士的HBM明年将进入新的阶段。这将是我们庆祝的一年。”
我们应该会看到第一个每个堆栈36GB的HBM4内存样本,在真正的下一代AI GPU上允许高达288GB的HBM4内存。NVIDIA的下一代Blackwell B100 AI GPU将使用最新的HBM3e内存,因此下一代代号Vera Rubin应该采用HBM4内存。我们还应该预计一些升级后的Blackwell AI GPU将使用HBM4。
NVIDIA正在更新其使用HBM3的H100 AI GPU,以及使用最新HBM3e内存标准的增强型H200 AI GPU,因此可能应该对Blackwell进行类似的操作,从HBM3e到HBM4。或者计划在未来几年推出更快的 HBM3e 变体。