谷歌云和NVIDIA将合作推向新的高度

Google Cloud and NVIDIA collaborate to new heights

随着生成式人工智能和大型语言模型(LLM)不断推动创新,训练和推断的计算需求以惊人的速度增长。

为满足这一需求,谷歌云今天宣布其新的A3实例正式上线,由NVIDIA H100 Tensor Core GPU提供支持。这些GPU通过其Transformer Engine为各种人工智能应用带来了前所未有的性能,专为加速LLM而设计。

A3实例的推出紧随NVIDIA被评为谷歌云“生成式人工智能合作伙伴年度”奖项之后,该奖项表彰了两家公司在加速生成式人工智能在谷歌云上的深度和持续合作。

这项联合努力采取多种形式,从基础设施设计到广泛的软件支持,使在谷歌云平台上构建和部署人工智能应用变得更加容易。

在谷歌云Next大会上,NVIDIA创始人兼首席执行官Jensen Huang与谷歌云首席执行官Thomas Kurian一同发表主题演讲,庆祝NVIDIA H100 GPU驱动的A3实例的正式上线,并介绍了谷歌如何在其DeepMind和其他部门内部的研究和推断中使用NVIDIA H100和A100 GPU。

在讨论中,Huang指出了更深层次的合作,使NVIDIA GPU加速了用于创建大规模LLM的PaxML框架。这个基于Jax的机器学习框架专门用于训练大规模模型,允许进行高级和完全可配置的实验和并行化。

PaxML已被谷歌用于构建内部模型,包括DeepMind和研究项目,并将使用NVIDIA GPU。两家公司还宣布,PaxML现在可以立即在NVIDIA NGC容器注册表上使用。

生成式人工智能初创公司层出不穷

如今,有超过一千家生成式人工智能初创公司正在构建下一代应用程序,其中许多公司正在使用谷歌云上的NVIDIA技术。一些著名的公司包括Writer和Runway。

Writer利用基于Transformer的LLM使营销团队能够快速创建网页、博客、广告等内容。为此,该公司利用NVIDIA AI Enterprise的应用框架NeMo帮助企业策划培训数据集,构建和定制LLM,并在生产环境中以规模运行。

利用NeMo的优化,Writer的开发人员已经从处理数亿参数的模型转向处理400亿参数的模型。该初创公司的客户名单包括德勤、欧莱雅、Intuit、Uber和许多其他《财富》500强公司。

Runway利用人工智能在任何风格下生成视频。该人工智能模型通过给定的图像或文本提示来模仿特定的风格。用户还可以使用该模型使用现有镜头创建新的视频内容。这种灵活性使电影制片人和内容创作者能够以全新的方式探索和设计视频。

谷歌云是第一个将NVIDIA L4 GPU引入云端的云服务提供商。此外,两家公司合作,使谷歌的Dataproc服务能够利用用于Apache Spark的RAPIDS加速器,在谷歌计算引擎上提供显著的性能提升,目前在Dataproc上可用,并将很快适用于无服务器Dataproc。

两家公司还将NVIDIA AI Enterprise提供给谷歌云市场,并将NVIDIA加速软件集成到Vertex AI开发环境中。

了解更多关于谷歌云上的NVIDIA GPU实例以及NVIDIA如何推动生成式人工智能的详细信息,并了解组织如何通过在GPU加速的谷歌云上使用NVIDIA NeMo来运行其关键任务的企业应用程序。

订阅生成式人工智能新闻,以便及时了解最新的突破、发展和技术。