“NVIDIA H100 Tensor Core GPU 现已正式发布,用于新的 Microsoft Azure 虚拟机系列”
NVIDIA H100 Tensor Core GPU 正式发布,用于新的 Microsoft Azure 虚拟机系列
Microsoft Azure用户现在可以利用最新的NVIDIA加速计算技术来训练和部署他们的生成式人工智能应用程序。
从今天开始,使用NVIDIA H100 Tensor Core GPU和NVIDIA Quantum-2 InfiniBand网络的Microsoft Azure ND H100 v5 VMs可以通过浏览器轻松扩展生成式人工智能、高性能计算(HPC)和其他应用。
新实例可供美国客户使用,此时开发人员和研究人员正在使用大型语言模型(LLMs)和加速计算来发现新的消费者和商业用例。
NVIDIA H100 GPU通过架构创新来提供超级计算级别的性能,包括第四代Tensor Cores、加速LLMs的新Transformer引擎和最新的NVLink技术,使GPU之间的通信速度达到900GB/秒。
- “在NVIDIA Studio中进行内容创作,得益于新的专业GPU、AI工具、Omniverse和OpenUSD合作功能的增强”
- 扩展版:NVIDIA扩展Maxine以用于视频编辑,展示3D虚拟会议研究
- SIGGRAPH特别演讲:NVIDIA首席执行官将生成式人工智能带到洛杉矶展会
使用3,200 Gbps跨节点带宽的NVIDIA Quantum-2 CX7 InfiniBand确保了在大规模GPU中的无缝性能,与全球最高性能的超级计算机的能力相当。
使用v5 VMs进行扩展
ND H100 v5 VMs非常适合训练和运行越来越复杂的LLMs和计算机视觉模型。这些神经网络驱动着最苛刻和计算密集的生成式人工智能应用程序,包括问题回答、代码生成、音频、视频和图像生成、语音识别等。
与上一代实例相比,ND H100 v5 VMs在像BLOOM 175B模型等LLMs的推断中实现了高达2倍的加速,展示了它们进一步优化人工智能应用的潜力。
NVIDIA和Azure
Azure上的NVIDIA H100 Tensor Core GPU为企业提供了性能、多功能性和规模,以加速其人工智能训练和推断工作负载。这种组合通过与Azure Machine Learning集成的NVIDIA AI Enterprise软件套件简化了生产AI的开发和部署,并在行业标准的MLPerf基准测试中提供了创纪录的AI性能。
此外,通过将NVIDIA Omniverse平台与Azure连接,NVIDIA和微软为数亿Microsoft企业用户提供了强大的工业数字化和AI超级计算资源。
了解更多由NVIDIA H100 GPU驱动的新Azure v5实例。