NVIDIA将用下一代Hopper H200和Blackwell B100 GPU助力2024年的人工智能竞赛,为确保HBM3E内存供应,公司已下达价值数十亿美元的订单韩国媒体《朝鲜日报》(Biz.Chosun)披露,英伟达(NVIDIA)已向SK hynix和美光(Micron)等公司订购了大量HBM3E内存,为其面向人工智能领域的下一代产品做准备。
Gz[yD
~6a yK~=6^M 韩国媒体称,英伟达已为HBM3E内存预付了约7000亿至1万亿韩元的费用,这一数字不一,但考虑到业界的巨大需求,我们预计实际金额将接近万亿韩元大关。仅预付款就约为7.75亿美元,实际数字可能超过10亿美元。这种大举砸钱的做法限制了其他公司的订货量,甚至使它们无法获得这些资源。
IPiV_c-l tXD$HeBB? 据业内人士26日透露,据了解,SK海力士和美光分别从英伟达收到了7000亿到1万亿韩元的预付款,用于供应尖端内存产品。
S{@}ECla K5""%O+ NVIDIA的大笔预付款导致了正在努力扩大HBM产能的内存半导体公司的投资行动。特别是最大的供应商SK Hynix,据悉该公司正计划将从英伟达获得的预付款集中投资于扩大TSV设备,而TSV设备阻碍了HBM产能的提高。去年第三季度,建立新TSV生产线的相关工作顺利开展就是明证。同样,美光公司在TSV设施方面的投资也有望得到推动。
xP;r3u
s dUI5,3* 与此同时,据悉三星电子最近还与英伟达(NVIDIA)完成了HBM3和HBM3E产品适用性测试,并签署了供应合同。
^J!q>KJs V~J5x >O 人工智能产业发展迅速,英特尔和AMD等公司都在加紧研发,以追赶英伟达在该领域的发展,因此绿队必须采取"先发制人"的措施,以保持其主导地位。
-yYdj1y; .KsR48g8 英伟达计划在下一代Blackwell AI GPU中首次采用HBM3e,据传最终产品将于2024年第二季度推出,在性能方面,通过采用chiplet设计,它将在每瓦性能方面带来决定性的提升。此外,英伟达的Hopper H200 GPU还将配备世界上最快的HBM3E内存,因此该解决方案对于英伟达在人工智能和高性能计算市场取得成功意义重大。
,"(L2+Yp MK$u}G 英伟达(NVIDIA)对数据中心领域的创收抱有很大期望,因此他们显然要比别人领先一步。英伟达计划到2027年将人工智能驱动的销售收入提升到3000亿美元,因此确保向客户稳定供应人工智能GPU是他们的首要目标。另一个有趣的事实是,收购HBM3E将为HBM行业带来巨大的推动力,尤其是在扩建设施方面,因为订单积压一直是SK hynix和美光等公司面临的一个大问题,因此预先测量的供应意味着HBM的交付将变得更加容易。
Tb/TP3N .])prp8 NVIDIA目前处于主导地位,而且看起来还不会放弃自己的宝座,该公司在其CUDA平台上取得的进步以及其硬件部门已经彻底改变了市场现状,我们拭目以待未来的发展。
JKfG/z|