“NVIDIA H100 Tensor Core GPU 现已正式发布,用于新的 Microsoft Azure 虚拟机系列”

NVIDIA H100 Tensor Core GPU 正式发布,用于新的 Microsoft Azure 虚拟机系列

Microsoft Azure用户现在可以利用最新的NVIDIA加速计算技术来训练和部署他们的生成式人工智能应用程序。

从今天开始,使用NVIDIA H100 Tensor Core GPU和NVIDIA Quantum-2 InfiniBand网络的Microsoft Azure ND H100 v5 VMs可以通过浏览器轻松扩展生成式人工智能、高性能计算(HPC)和其他应用。

新实例可供美国客户使用,此时开发人员和研究人员正在使用大型语言模型(LLMs)和加速计算来发现新的消费者和商业用例。

NVIDIA H100 GPU通过架构创新来提供超级计算级别的性能,包括第四代Tensor Cores、加速LLMs的新Transformer引擎和最新的NVLink技术,使GPU之间的通信速度达到900GB/秒。

使用3,200 Gbps跨节点带宽的NVIDIA Quantum-2 CX7 InfiniBand确保了在大规模GPU中的无缝性能,与全球最高性能的超级计算机的能力相当。

使用v5 VMs进行扩展

ND H100 v5 VMs非常适合训练和运行越来越复杂的LLMs和计算机视觉模型。这些神经网络驱动着最苛刻和计算密集的生成式人工智能应用程序,包括问题回答、代码生成、音频、视频和图像生成、语音识别等。

与上一代实例相比,ND H100 v5 VMs在像BLOOM 175B模型等LLMs的推断中实现了高达2倍的加速,展示了它们进一步优化人工智能应用的潜力。

NVIDIA和Azure

Azure上的NVIDIA H100 Tensor Core GPU为企业提供了性能、多功能性和规模,以加速其人工智能训练和推断工作负载。这种组合通过与Azure Machine Learning集成的NVIDIA AI Enterprise软件套件简化了生产AI的开发和部署,并在行业标准的MLPerf基准测试中提供了创纪录的AI性能。

此外,通过将NVIDIA Omniverse平台与Azure连接,NVIDIA和微软为数亿Microsoft企业用户提供了强大的工业数字化和AI超级计算资源。

了解更多由NVIDIA H100 GPU驱动的新Azure v5实例。