NVIDIA(英伟达)日前宣布与微软展开一项为期多年的合作,双方将共同打造全球最强大的 AI 超级计算机。微软 Azure 的先进超级计算基础设施,结合 NVIDIA GPU、网络和全栈式 AI 软件为此超级计算机赋能,以帮助企业训练、部署和扩展包括大型、先进模型在内的 AI。

Azure 的云端 AI 超级计算机包括强大、可扩展 ND 与 NC 系列虚拟机,其专为 AI 分布式训练和推理而优化。Azure 是首个采用 NVIDIA 先进 AI 堆栈的公有云,在其平台上添加了数以万计的 NVIDIA A100 和 H100 GPU、NVIDIA Quantum-2 400Gb/s InfiniBand 网络和 NVIDIA AI Enterprise 软件套件。

此次合作中,NVIDIA 将使用 Azure 的可扩展虚拟机实例来研究并进一步加快生成式 AI 的发展。生成式 AI 是正在迅速兴起的 AI 领域,其中像 Megatron Turing NLG 530B 这样的基础模型是无监督、自学习算法的基准,这些算法被用来创造新的文本、代码、数字图像、视频或音频。

两家公司还将合作优化微软的 DeepSpeed 深度学习优化软件。NVIDIA 的全栈式 AI 工作流和软件开发工具包皆专为 Azure 进行了优化,并将提供给 Azure 企业客户。

NVIDIA 企业计算副总裁 Manuvir Das 表示:“AI 技术正在加速发展,行业的采用速度也在同时加快。基础模型上的突破引发了研究浪潮、培育了新的初创企业并启动了新的企业应用程序。我们将与微软一同为研究者和企业提供最先进的 AI 基础设施和软件,使他们能够充分利用 AI 的变革性力量。”

微软云与 AI 事业部执行副总裁 Scott Guthrie 表示:“AI 正在掀起整个企业和工业计算的下一轮自动化浪潮,帮助企业机构在变幻莫测的经济环境中得以事半功倍。我们与 NVIDIA 合作,打造全球可扩展性最强的超级计算机平台,为微软 Azure 上的每家企业提供最先进的 AI 功能。”

通过 Azure 上的 NVIDIA 计算与Quantum-2 InfiniBand 实现可扩展峰值性能

微软 Azure 的 AI 优化虚拟机实例采用了 NVIDIA 最先进的数据中心 GPU,并且是首个搭载 NVIDIA Quantum-2 400Gb/s InfiniBand 网络的公有云实例。客户可以在单个集群中部署数千 GPU 来训练最具规模的大型语言模型,大规模地构建最复杂的推荐系统以及实现生成式 AI。

目前的 Azure 实例采用了 NVIDIA Quantum 200Gb/s InfiniBand 网络和 NVIDIA A100 GPU。未来的实例将集成 NVIDIA Quantum-2 400Gb/s InfiniBand 网络和 NVIDIA H100 GPU。结合 Azure 先进的计算云基础设施、网络和存储,这些通过 AI 优化的产品将为任何规模的 AI 训练和深度学习推理工作负载提供可扩展的峰值性能。

加速 AI 的开发和部署

另外,该平台将支持广泛的 AI 应用和服务,包括微软 DeepSpeed 和 NVIDIA AI Enterprise 软件套件。

微软 DeepSpeed 将使用 NVIDIA H100 Transformer 引擎来加速基于 Transformer 的模型,这些模型可用于大型语言模型、生成式 AI 和编写计算机代码等应用。该技术将 8 位浮点精度能力应用于 DeepSpeed,大大加快了 Transformer 的 AI 计算速度,使其吞吐量达到 16 位运算的两倍。

被全球企业广泛采用的 NVIDIA AI 平台软件 NVIDIA AI Enterprise 已通过认证并支持搭载 NVIDIA A100 GPU 的微软 Azure 实例。未来的软件版本将增加对搭载 NVIDIA H100 GPU 的 Azure 实例的支持。

NVIDIA AI Enterprise 包括用于语音 AI 的 NVIDIA Riva 以及 NVIDIA Morpheus 网络安全应用框架,可简化从数据处理和 AI 模型训练到仿真和大规模部署等 AI 工作流中的每一步。