论坛风格切换
正版合作和侵权请联系 sd173@foxmail.com
 
  • 帖子
  • 日志
  • 用户
  • 版块
  • 群组
帖子
购买邀请后未收到邀请联系sdbeta@qq.com
  • 464阅读
  • 1回复

[硬件资讯]英伟达和AMD的下一代人工智能GPU将主要搭配HBM3内存 [复制链接]

上一主题 下一主题
 

发帖
6738
今日发帖
最后登录
2024-11-16
只看楼主 倒序阅读 使用道具 楼主  发表于: 2023-08-03 10:24:11
  TrendForce报告称,下一代HBM3和HBM3e内存将主导人工智能GPU行业,尤其是在企业对整合DRAM的兴趣显著增加之后。现有的英伟达A100和H100 AI GPU分别采用HBM2e和HBM3内存,它们分别于2018年和2020年亮相。美光(Micron)、SK海力士(SK Hynix)和三星(Samsung)等多家制造商正在快速开发用于大规模生产更快的新型HBM3内存的设备,用不了多久,它就会成为新的基准。 )1ZJ  
TnvHO_P,  
  关于HBM3内存,有一个普通的细节不为很多人所知。正如TrendForce所强调的那样,HBM3将以不同的形式出现。据报道,低端HBM3将以5.6至6.4 Gbps的速度运行,而高端变体将超过8 Gbps。高端变体将被称为"HBM3P、HBM3A、HBM3+和HBM3 Gen2"。 JEK%yMj  
?J^IAF y  
  机构预计,HBM行业的市场份额必将大幅上升,而SK海力士则处于领先地位。预计未来的人工智能GPU,如AMDMI300 Instinct GPU和英伟达的H100,都将采用下一代HBM3工艺,而SK Hynix在这方面占据了先机,因为它已经进入了制造阶段,并收到了英伟达本身的样品请求。 mr{k>Un\  
x*,q Rew  
  美光(Micron)最近也宣布了其未来的HBM4内存设计计划,但预计要到2026年才会实现,因此即将推出的代号为"GB100"的英伟达Blackwell GPU很可能会采用速度更快的HBM3变体,时间大约在2024-2025年之间。采用第五代工艺技术(10纳米)的HBM3E内存预计将于2024年上半年开始量产,三星/SK海力士预计都将加紧生产。 }<5\O*kX4  
[3{:H"t  
  SK hynix率先推出12层HBM3内存,每层24 GB容量,向客户提供样品 "xvV'&lQ  
 m+72C]9  
  三星和美光(Micron)等竞争对手也在加足马力,有多篇报道都围绕着这两家公司。据说,三星建议英伟达通过其部门负责晶圆和内存的采购。与此同时,据报道美光已与台积电合作,成为英伟达人工智能GPU的内存供应商。 C,OB3y  
~,1-$#R  
  在之前的报道中,我们根据TrendForce披露的数据讨论了人工智能产业的前景。据预测,从2023年到2027年,人工智能服务器出货量预计将增长15.4%,复合年增长率(CAGR)预计为12.2%。出货量的大幅增长最终将导致公司之间的竞争加剧,最终推动创新。 7(A G]  
离线zzl311

发帖
2041
今日发帖
最后登录
2024-09-12
只看该作者 沙发  发表于: 2023-08-03 13:12:23
谢谢分享。