NVIDIA将在Hot Chips 2024上展示其Blackwell技术堆栈,并在本周末和下周的主要活动中进行会前演示。对于NVIDIA发烧友来说,这是一个激动人心的时刻,他们将深入了解NVIDIA的一些最新技术。然而,Blackwell GPU的潜在延迟可能会影响其中一些产品的时间表。
0 1:(QJ /gq\.+'{ NVIDIA决心利用其Blackwell平台重新定义人工智能领域,将其定位为超越传统GPU功能的综合生态系统。NVIDIA将在Hot Chips 2024会议上展示其Blackwell服务器的设置和配置,以及各种先进组件的集成。
~otV'= /my 0"DS>:Ntk 在NVIDIA即将举行的演讲中,许多内容都是大家耳熟能详的,包括他们的数据中心和人工智能战略以及Blackwell路线图。该路线图概述了明年Blackwell Ultra的发布,随后是2026年的Vera CPU和Rubin GPU,以及2027年的Vera Ultra。NVIDIA在去年6月的Computex上已经分享了这一路线图。
:?H1h8wbCt \x=!' .'=-@W* 对于渴望深入了解NVIDIA Blackwell堆栈及其不断发展的使用案例的技术爱好者来说,Hot Chips 2024将提供一个探索NVIDIA在人工智能硬件、液体冷却创新和人工智能驱动的芯片设计方面最新进展的机会。
& hv@ & Hw%lT}[O 该平台由多个NVIDIA组件组成,包括Blackwell GPU、Grace CPU、BlueField数据处理单元、ConnectX网络接口卡、NVLink交换机、Spectrum以太网交换机和Quantum InfiniBand交换机。
gv/yfiA? e/F+Tf )KcY<K h3z9}' c{wob%!> RgLk AHA 此外,NVIDIA还将推出Quasar Quantization System,该系统融合了先进的算法、NVIDIA软件库和Blackwell的第二代Transformer Engine,可增强FP4 LLM操作。这一开发成果有望在保持FP16高性能标准的同时大幅节省带宽,实现数据处理效率的重大飞跃。
t[X,m]SX fP;2qho 另一个焦点是NVIDIA GB200 NVL72,这是一个多节点液冷系统,配备72个Blackwell GPU和36个Grace CPU。与会者还将探索NVLink互连技术,该技术可促进GPU通信,实现卓越的吞吐量和低延迟推理。
~uh,R-Q$ -ei+r# NVIDIA在数据中心冷却方面的进展也将成为讨论的话题。该公司正在研究使用温水液体冷却,这种方法可以将功耗降低28%。这种技术不仅能降低能源成本,还无需使用低于环境温度的冷却硬件,NVIDIA希望借此成为可持续技术解决方案的领跑者。
K#a_7/!v/ 89a`WV@} 为了配合这些努力,NVIDIA将重点介绍其参与COOLERCHIPS计划的情况,该计划是美国能源部的一项倡议,旨在推动冷却技术的发展。通过该项目,NVIDIA正在利用其Omniverse平台开发模拟能耗和冷却效率的数字孪生体。
q.v_?X<_ q]OgT4ly 在另一场会议上,NVIDIA将讨论其使用的基于代理的人工智能系统,该系统能够自主执行芯片设计任务。人工智能代理的应用实例包括时序报告分析、单元集群优化和代码生成。值得注意的是,单元集群优化工作最近在首届电气和电子工程师协会LLM辅助设计国际研讨会上被评为最佳论文。
xQ\S!py-