Nvidia推出Blackwell B200 GPU和GB200“超级芯片”,将引领AI计算新时代

近日,Nvidia公司宣布推出了全新的Blackwell B200 GPU和GB200“超级芯片”,这一举措被认为将进一步巩固其在人工智能(AI)计算领域的领先地位。据悉,这款新的GPU架构拥有惊人的性能和效率,有望改变AI计算的格局。

据悉,新的B200 GPU拥有高达20 petaflops的FP4性能,由2080亿个晶体管组成。而GB200更是将两个B200 GPU与一个Grace CPU结合,提供了高达30倍的性能,同时在能效方面也有显著提升。据Nvidia表示,与H100相比,新产品可以将成本和能耗降低高达25倍。

Nvidia公司还指出,使用Blackwell GPU进行模型训练时,传统上需要8000个Hopper GPU和15兆瓦的功耗,而如今只需2000个Blackwell GPU,并且功耗仅为4兆瓦。

在一项具有1750亿参数的GPT-3 LLM基准测试中,Nvidia称GB200的性能是H100的7倍,训练速度提高了4倍。其中的关键改进之一是第二代变压器引擎,通过将每个神经元的位数从8位减少到4位,提高了计算、带宽和模型尺寸,从而实现了之前提到的20 petaflops的FP4性能。另一项关键差异是新一代NVLink交换机,可以让576个GPU相互通信,双向带宽达到每秒1.8TB。

Nvidia公司表示,他们期望企业购买大量的这些GPU,并将它们打包在更大型的设计中,如GB200 NVL72,该设计将36个CPU和72个GPU安装在一个液冷机架中,实现了720 petaflops的AI训练性能或1440 petaflops(即1.4 exaflops)的推断性能。据称,每个机架内有将近两英里长的电缆,共有5000根独立电缆。

此外,Nvidia还表示,亚马逊、谷歌、微软和甲骨文已经计划在其云服务中提供NVL72机架,尽管尚不清楚他们的购买量。

除了硬件,Nvidia还提供了完整的解决方案,如DGX GB200的DGX Superpod,该解决方案将八个系统整合在一起,提供了288个CPU、576个GPU、240TB内存和11.5 exaflops的FP4计算。

总的来说,Nvidia的新产品将在AI计算领域掀起一场新的革命。随着这一技术的不断成熟和推广,人工智能应用将迎来更广阔的发展空间,为全球各行各业带来更多创新和变革。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注