高带宽内存(HBM)的首次迭代受到一定限制,每个堆栈的速度最高只能达到128 GB/s。但有一个主要的注意事项:由于物理限制,使用HBM1的显卡内存上限为4 GB。
/k1&?e 1_/\{quE 随着时间的推移,SK Hynix和三星等HBM制造商改进了HBM的缺点。第一次更新,即HBM2,将潜在速度提高了一倍,达到每堆栈256 GB/s,最大容量达到8 GB。2018年,HBM2又进行了小幅更新(HBM2E),容量限制进一步提高到24 GB,速度也再次提升,最终达到每芯片460 GB/s的峰值。
{C*mn !u >Q+a'bd w HBM3推出后,速度再次翻倍,每个堆栈的最高速度可达819 GB/s。更令人印象深刻的是,容量增加了近三倍,从24 GB增加到64 GB。与HBM2E一样,HBM3也迎来了另一次中期升级,即HBM3E,将每个堆栈的理论速度提高到1.2 TB/s。
[O [N _z Qoq@=|7kxa 随着时间的推移,消费级显卡中的HBM逐渐被价格更有竞争力的GDDR内存所取代。高带宽内存成为数据中心的标准配置,工作场所显卡制造商选择使用速度更快的接口。
7z=Ss'O] \{G6!dV|S 在各种更新和改进中,HBM在所有迭代中都保留了相同的1024位(每个堆栈)接口。根据来自韩国的一份报告,当HBM4进入市场时,这种情况可能最终会改变。如果报道属实,内存接口将从1024位翻番至2048位。
5.VA1 ~AK!_EOs` 理论上,跳转到2048位接口可以使传输速度再次翻番。遗憾的是,与HBM3E相比,内存制造商可能无法使用HBM4保持相同的传输速率。不过,更高的内存接口可以让制造商在显卡中使用更少的堆栈。
uzZ|w+3O fylW)W4C 例如,NVIDIA的旗舰AI显卡H100目前使用6个1024位的已知良好堆叠裸片,从而实现了6144位的接口。如果内存接口翻倍至2048位,理论上NVIDIA可以将芯片数量减半至三个,并获得相同的性能。当然,目前还不清楚制造商们会采取哪种方式,因为HBM4几乎肯定要在数年后才能投入生产。
pq-zy6^ 3=dGz^Zdv: 目前,SK海力士和三星都认为,当他们开始生产HBM4时,将能实现"100%的良品率"。只有时间才能证明这些报道是否站得住脚,因此请谨慎对待这些消息。
|=38t8Ge&