迎接转型:AWS和NVIDIA在生成式人工智能和云创新领域继续前进
迎接转型:AWS和NVIDIA在生成式人工智能和云创新领域持续探索进展
亚马逊网络服务和NVIDIA将把最新的生成式AI技术带给全球企业。
通过结合人工智能和云计算,NVIDIA创始人兼首席执行官黄仁勋与AWS首席执行官亚当·塞利普斯基于周二在拉斯维加斯威尼斯博览中心的AWS re:Invent 2023活动上共同登台。
塞利普斯基表示他很“激动”地宣布AWS和NVIDIA合作伙伴关系的扩展,提供更多能提供先进图形、机器学习和生成式AI基础设施的服务。
两家公司宣布AWS将成为首家采用最新的NVIDIA GH200 NVL32 Grace Hopper Superchip和新的多节点NVLink技术的云服务提供商,AWS将将NVIDIA DGX Cloud引入AWS,AWS已集成了一些NVIDIA最受欢迎的软件库。
黄仁勋首先强调了AWS与NVIDIA关键库的集成,涵盖了从NVIDIA AI Enterprise到cuQuantum再到BioNeMo等领域,涉及数据处理、量子计算和数字生物学等领域。
黄仁勋表示,这个合作伙伴关系让AWS面向数百万开发人员和将近4万家正在使用这些库的公司,AWS将扩展其云实例服务以包括NVIDIA的新L4、L40S和即将推出的H200 GPU。
然后,塞利普斯基介绍了NVIDIA GH200 Grace Hopper Superchip在AWS上的首次亮相,这是云计算的一项重大进步,然后请黄仁勋进一步解释。
“Grace Hopper,也就是GH200,以一种非常独特的方式将两个革命性的处理器连接在一起,”黄仁勋说。他解释说GH200使用名为NVLink的芯片间互联将NVIDIA的Grace Arm CPU与其H200 GPU连接在一起,速度达到每秒1TB。
每个处理器都可以直接访问高性能HBM和高效LPDDR5X内存。这种配置将为每个超级芯片提供4 PetaFLOPS的处理能力和600GB的内存。
AWS和NVIDIA使用新的NVLink交换机将32个Grace Hopper超级芯片连接在每个机架上。每个32个GH200 NVLink连接的节点可以成为一个单独的Amazon EC2实例。当将其与AWS Nitro和EFA网络集成时,用户可以将GH200 NVL32实例连接起来扩展到数千个GH200超级芯片。
“通过AWS Nitro,这基本上变成了一个巨大的虚拟GPU实例,”黄仁勋说。
黄仁勋说,AWS在高度可扩展的云计算方面的专业知识与NVIDIA的Grace Hopper创新相结合,将使其成为一个提供复杂生成式AI工作负载的最高性能平台。
“能看到基础设施是很好的,但它延伸到他们拥有的软件、服务和其他所有工作流程上,”塞利普斯基说,并介绍了NVIDIA DGX Cloud在AWS上的推出。
这个合作将带来由GH200超级芯片提供动力的第一个DGX Cloud AI超级计算机,展示了AWS的云基础设施和NVIDIA的AI专业知识的强大。
随后,黄仁勋宣布AWS中的这个新的DGX Cloud超级计算机设计,代号为Project Ceiba,也将成为NVIDIA自己的最新AI超级计算机,用于其自己的AI研究和开发。
以壮观的亚马逊Ceiba树命名,Project Ceiba DGX Cloud集群采用了16,384个GH200 Superchip,实现了65 exaflops的AI处理能力,黄仁勋表示。
Ceiba将成为世界上第一个由GH200 NVL32 AI超级计算机构建的最新AI超级计算机,黄仁勋说。
黄仁勋描述Project Ceiba AI超级计算机为“非常惊人”,称它将能够将最大的语言模型的训练时间减少一半。
NVIDIA的AI工程团队将利用DGX Cloud中的这台新超级计算机推动AI在图形、LLMs、图像/视频/3D生成、数字生物学、机器人、自动驾驶汽车、地球-2气候预测等方面的进一步发展,黄仁勋说。
“DGX是NVIDIA的云AI工厂,”黄启东表示,并指出AI现在是NVIDIA在计算机图形学、创建数字生物模型、机器人技术、气候模拟和建模等方面进行自身工作的关键。
“DGX Cloud也是我们与企业客户合作构建定制AI模型的AI工厂,”黄启东说。“他们提供数据和领域专门知识,我们提供AI技术和基础设施。”
此外,黄启东还宣布,AWS将在明年初推出基于NVIDIA GH200 NVL、H200、L40S、L4 GPU的四种Amazon EC2实例。
Selipsky在结束对话时宣布,基于GH200的实例和DGX Cloud将在未来一年内在AWS上可用。您可以在AWS的YouTube频道上观看这次讨论和Selipsky的完整主题演讲。