TrendForce报告称,下一代HBM3和HBM3e内存将主导人工智能GPU行业,尤其是在企业对整合DRAM的兴趣显著增加之后。现有的英伟达A100和H100 AI GPU分别采用HBM2e和HBM3内存,它们分别于2018年和2020年亮相。美光(Micron)、SK海力士(SK Hynix)和三星(Samsung)等多家制造商正在快速开发用于大规模生产更快的新型HBM3内存的设备,用不了多久,它就会成为新的基准。
gAWi& wQUl!s7M; 关于HBM3内存,有一个普通的细节不为很多人所知。正如TrendForce所强调的那样,HBM3将以不同的形式出现。据报道,低端HBM3将以5.6至6.4 Gbps的速度运行,而高端变体将超过8 Gbps。高端变体将被称为"HBM3P、HBM3A、HBM3+和HBM3 Gen2"。
< ,0D|O,Y o& FOp' 机构预计,HBM行业的市场份额必将大幅上升,而SK海力士则处于领先地位。预计未来的人工智能GPU,如AMDMI300 Instinct GPU和英伟达的H100,都将采用下一代HBM3工艺,而SK Hynix在这方面占据了先机,因为它已经进入了制造阶段,并收到了英伟达本身的样品请求。
s{Qae=$Q d-B+s%>D 美光(Micron)最近也宣布了其未来的HBM4内存设计计划,但预计要到2026年才会实现,因此即将推出的代号为"GB100"的英伟达Blackwell GPU很可能会采用速度更快的HBM3变体,时间大约在2024-2025年之间。采用第五代工艺技术(10纳米)的HBM3E内存预计将于2024年上半年开始量产,三星/SK海力士预计都将加紧生产。
m%`YAD@2z &|{1Ws SK hynix率先推出12层HBM3内存,每层24 GB容量,向客户提供样品
ih".y3 MGm*({% 三星和美光(Micron)等竞争对手也在加足马力,有多篇报道都围绕着这两家公司。据说,三星建议英伟达通过其部门负责晶圆和内存的采购。与此同时,据报道美光已与台积电合作,成为英伟达人工智能GPU的内存供应商。
Bk~C$'x4 5<dg@,\ 在之前的报道中,我们根据TrendForce披露的数据讨论了人工智能产业的前景。据预测,从2023年到2027年,人工智能服务器出货量预计将增长15.4%,复合年增长率(CAGR)预计为12.2%。出货量的大幅增长最终将导致公司之间的竞争加剧,最终推动创新。
5OI.Ka