NVIDIA的H100 AI芯片使其成为价值数亿美元的公司,其价值可能超过Alphabet和亚马逊。尽管竞争对手一直在奋力追赶,但也许NVIDIA即将扩大其领先优势--凭借新的Blackwell B200 GPU和GB200"超级芯片"。
\=g!$ \+]O*Bm&`8 NVIDIA首席执行官黄仁勋在GTC现场直播中举起他的新GPU(左边),右边是H100。
o*_g$ vKkf2 7 NVIDIA表示,新的B200 GPU拥有2080亿个晶体管,可提供高达20petaflops的FP4算力,而GB200将两个GPU和一个Grace CPU结合在一起,可为LLM推理工作负载提供30倍的性能,同时还可能大大提高效率。NVIDIA表示,与H100相比,它的成本和能耗"最多可降低25倍"。
]h8/M7k jt%WPkY: NVIDIA声称,训练一个1.8万亿个参数的模型以前需要8000个Hopper GPU和15兆瓦的电力。如今,NVIDIA首席执行官表示,2000个Blackwell GPU就能完成这项工作,耗电量仅为4兆瓦。
Pz
{Ig 0UjyMEiK NVIDIA表示,在具有1750亿个参数的GPT-3 LLM基准测试中,GB200的性能是H100的7倍,而NVIDIA称其训练速度是H100的4倍。
a71}y;W 8Mb$+^zU 这就是GB200的样子。两个GPU、一个CPU、一块电路板
C$y fMK,,N }wL3mVz NVIDIA介绍说,其中一项关键改进是采用了第二代变压器引擎,通过为每个神经元使用四个比特而不是八个比特,将计算能力、带宽和模型大小提高了一倍(前面提到的FP4的20 petaflops)。第二个关键区别只有在连接大量GPU时才会出现:新一代NVLink交换机可让576个GPU相互连接,双向带宽达到每秒1.8 TB。
)$F6 k>-'AWH^v 这就要求NVIDIA打造一个全新的网络交换芯片,其中包含500亿个晶体管和一些自己的板载计算:NVIDIA表示,该芯片拥有3.6 teraflops的FP8处理能力。
Cha?7F[xL 6#-Z@fz% NVIDIA表示将通过Blackwell增加FP4和FP6
c}\
d5R_L .m'N7`VB NVIDIA表示,在此之前,由16个GPU组成的集群有60%的时间用于相互通信,只有40%的时间用于实际计算。
ds')PIj 5W5pRd>Q 当然,NVIDIA还指望企业大量购买这些GPU,并将它们包装成更大的设计,比如GB200 NVL72,它将36个CPU和72个GPU集成到一个液冷机架中,可实现总计720 petaflops的AI训练性能或1440 petaflops(又称1.4exaflops)的推理性能。它内部有近两英里长的电缆,共有5000条独立电缆。
4sQ~&@[Q+ 04[)qPPS GB200 NVL72
NN*Sb J0 h%|9]5(= 机架上的每个托盘包含两个GB200芯片或两个NVLink交换机,每个机架有18个前者和9个后者。NVIDIA称,其中一个机架总共可支持27万亿个参数模型。据传,GPT-4的参数模型约为1.7万亿。
7t+]z) o"f%\N0_8 该公司表示,亚马逊、Google、微软和甲骨文都已计划在其云服务产品中提供NVL72机架,但不清楚它们将购买多少。
DW4MA<UQ B8>FCF&}E 当然,NVIDIA也乐于为公司提供其他解决方案。下面是用于DGX GB200的DGX Superpod,它将八个系统合而为一,总共拥有288个CPU、576个GPU、240TB内存和11.5 exaflops的FP4计算能力。
*IVD/9/ ":z@c, NVIDIA称,其系统可扩展至数万GB200超级芯片,并通过其新型Quantum-X800 InfiniBand(最多144个连接)或Spectrum-X800以太网(最多64个连接)与800Gbps网络连接在一起。
@US '{hO1p ,Zr YJ< 我们预计今天不会听到任何关于新游戏GPU的消息,因为这一消息是在NVIDIA的GPU技术大会上发布的,而该大会通常几乎完全专注于GPU计算和人工智能,而不是游戏。不过,Blackwell GPU架构很可能也会为未来的RTX 50系列桌面显卡提供算力。
ap{{(y&R