NVIDIA的H100 AI芯片使其成为价值数亿美元的公司,其价值可能超过Alphabet和亚马逊。尽管竞争对手一直在奋力追赶,但也许NVIDIA即将扩大其领先优势--凭借新的Blackwell B200 GPU和GB200"超级芯片"。
O!!Ne'I
,:!X]F#d$ NVIDIA首席执行官黄仁勋在GTC现场直播中举起他的新GPU(左边),右边是H100。
eMf+b;~R {1^9* NVIDIA表示,新的B200 GPU拥有2080亿个晶体管,可提供高达20petaflops的FP4算力,而GB200将两个GPU和一个Grace CPU结合在一起,可为LLM推理工作负载提供30倍的性能,同时还可能大大提高效率。NVIDIA表示,与H100相比,它的成本和能耗"最多可降低25倍"。
~Co7 %e V i%7b)t[y NVIDIA声称,训练一个1.8万亿个参数的模型以前需要8000个Hopper GPU和15兆瓦的电力。如今,NVIDIA首席执行官表示,2000个Blackwell GPU就能完成这项工作,耗电量仅为4兆瓦。
UE4zmIq $x&\9CRM NVIDIA表示,在具有1750亿个参数的GPT-3 LLM基准测试中,GB200的性能是H100的7倍,而NVIDIA称其训练速度是H100的4倍。
Z:|2PQ4
F`9;s@V* 这就是GB200的样子。两个GPU、一个CPU、一块电路板
W{\){fr6O uy~KJn?Tu NVIDIA介绍说,其中一项关键改进是采用了第二代变压器引擎,通过为每个神经元使用四个比特而不是八个比特,将计算能力、带宽和模型大小提高了一倍(前面提到的FP4的20 petaflops)。第二个关键区别只有在连接大量GPU时才会出现:新一代NVLink交换机可让576个GPU相互连接,双向带宽达到每秒1.8 TB。
*N"bn'>3 ]XEkQ 这就要求NVIDIA打造一个全新的网络交换芯片,其中包含500亿个晶体管和一些自己的板载计算:NVIDIA表示,该芯片拥有3.6 teraflops的FP8处理能力。
~%9ofXy
<!h&h