欢迎来到AWS上基于生成式人工智能的云构建新时代

探索AWS上基于生成式人工智能的云构建,引领时尚新潮流

我们相信生成式人工智能(AI)有潜力在时间上改变我们所知的几乎每一种客户体验。在AWS上推出生成式AI应用程序的公司数量众多,并且正在快速增长,包括adidas,Booking.com,Bridgewater Associates,Clariant,Cox Automotive,GoDaddy和LexisNexis Legal & Professional等等。像Perplexity AI这样的创新初创公司已经全面投入AWS进行生成式AI。像Anthropic这样的领先AI公司已经选择AWS作为其主要的云提供商,用于关键任务工作负载,以及训练其未来模型的地方。像Accenture这样的全球服务和解决方案提供商正在利用定制的生成式AI应用程序的好处,使他们的内部开发人员能够充分发挥其作用,并使用Amazon CodeWhisperer

这些客户选择AWS,因为我们专注于做我们一直在做的事情 – 将复杂且昂贵的技术转化为能够改变客户体验和业务的技术,并将其民主化,适用于各种规模和技术能力的客户。为了做到这一点,我们正在投资并迅速创新,以提供生成式AI堆栈三个层面上最全面的能力集。底层是用于训练大型语言模型(LLMs)和其他基础模型(FMs)以及生成推理或预测的基础设施。中间层是为客户提供所有构建和扩展生成式AI应用程序所需的模型和工具,同时提供与AWS服务相同的安全性、访问控制和其他功能。在顶层,我们一直在投资于关键领域的具有颠覆性应用程序,比如基于生成式AI的编码。除了为他们提供选择,以及他们对我们所期望的全面和深度的能力,客户还告诉我们,他们赞赏我们以数据为本的方法,并相信我们从头开始构建了具备企业级安全性和隐私性的一切。

本周,我们迈出了重要的一步,宣布了对生成式AI堆栈三个层面的许多重要的新功能,使我们的客户能够在其业务中广泛应用生成式AI,变得简单和实际。

堆栈的底层:AWS Trainium2是提供最先进的生成式AI云基础设施的最新附加项

堆栈的底层是用于训练和运行LLMs和其他FMs所需的基础设施-计算、网络、框架、服务等。AWS通过创新来提供最先进的ML基础设施。通过与NVIDIA的长期合作,AWS是12年前首家将GPU引入云端的服务商,最近我们是首个提供NVIDIA H100 GPU的主要云提供商。我们持续投资于独特的创新,使AWS成为运行GPU的最佳云端环境,其中包括最先进的虚拟化系统(AWS Nitro)的价格和性能优势,具有弹性布线适配器(EFA)的强大的PB级网络,以及Amazon EC2超级集群(在一个可用区中部署数千个加速实例,并通过非阻塞网络相互连接,可提供高达3200 Gbps的大规模ML训练)。我们还使任何客户更容易访问用于生成式AI的备受追捧的GPU计算能力,使用Amazon EC2 ML容量块 – 这是业界唯一的消耗模型,允许客户保留未来使用的GPU(在EC2超级集群中最多500个)用于短期ML工作负载。

几年前,我们意识到为了不断推动性能价格的提升,我们需要创新,直到硅芯片的级别。对于ML,我们从AWS Inferentia开始,这是我们专门设计的推理芯片。如今,我们正处于第二代AWS Inferentia与Amazon EC2 Inf2实例的阶段,这些实例专为包含数千亿参数的大规模生成式AI应用程序进行了优化。Inf2实例在云端推理的成本最低,同时也可以提供高达四倍的吞吐量和高达十倍的较低延迟,与Inf1实例相比。由多达12个Inferentia2芯片驱动,Inf2是唯一一种针对推理进行优化的EC2实例,可以在加速器之间提供高速连接,使客户能够更快、更高效地运行推理(以更低的成本),而无需通过将超大型模型分布在多个加速器上来牺牲性能或延迟。像Adobe、Deutsche Telekom和Leonardo.ai这样的客户已经看到了出色的早期结果,并且对在Inf2上规模化部署他们的模型感到兴奋。

在培训方面,Trn1实例——由AWS专用的ML训练芯片AWS Trainium提供支持——经过优化,以通过EFA网络将训练分布到多台服务器上。像理光这样的客户在几天内训练了一个具有数十亿参数的日本LLM。Databricks使用基于Trainium的实例进行训练大规模深度学习模型可获得高达40%的更好价格性能。但由于几乎每周都会推出新的、更有能力的模型,我们将继续推动性能和规模的界限,并且我们很高兴宣布AWS Trainium2,旨在为具有数百亿到数万亿参数的训练模型提供更好的价格性能。Trainium2的训练性能应比第一代Trainium快四倍,并且在使用EC2 UltraCluster时,应该能提供高达65 exaflops的总计算能力。这意味着客户将能够在几周内而不是几个月内训练出3000亿参数的LLM。Trainium2的性能、规模和能效是Anthropic选择在AWS上训练其模型并将用于其未来模型的原因之一。我们正在与Anthropic合作,持续创新Trainium和Inferentia。预计我们的第一批Trainium2实例将在2024年提供给客户。

我们还加强了ML硅的软件工具链,特别是推进AWS Neuron的发展。Neuron是一个软件开发工具包(SDK),可帮助客户从Trainium和Inferentia中获得最大的性能。自2019年推出Neuron以来,我们在编译器和框架技术方面进行了大量投资,今天Neuron支持许多最受欢迎的公开可用模型,包括Meta的Llama 2、Databricks的MPT,以及Stability AI的Stable Diffusion等,还支持了Hugging Face的热门模型仓库中排名前100的93个模型。 Neuron与PyTorch和TensorFlow等热门ML框架相结合,对JAX的支持将于明年初推出。客户告诉我们,Neuron让他们能够仅凭几行代码轻松切换其现有的模型训练和推断流程到Trainium和Inferentia。

没有其他人能够提供相同的选择最佳ML芯片、超快速网络、虚拟化和超大规模群集的组合。因此,不足为奇,一些最知名的生成AI初创企业,如AI21 Labs、Anthropic、Hugging Face、Perplexity AI、Runway和Stability AI都在AWS上运行。但是,您仍然需要合适的工具来有效利用这种计算资源,以便高效且具有成本效益地构建、训练和运行LLMs和其他FMs。对于许多这些初创公司来说,Amazon SageMaker是答案。无论是从头开始构建和训练新的专有模型,还是从众多热门公开可用的模型中开始,训练都是一项复杂且昂贵的任务。而且,运行这些模型的成本也不低。客户必须获取大量数据并对其进行准备。这通常涉及大量的手动工作,如数据清理、去重、增强和转换。然后,他们必须创建和维护大量的GPU/加速器集群,编写代码以在集群之间高效分配模型训练,并经常检查点、暂停、检查和优化模型,并手动解决集群中的硬件问题。其中许多挑战并不新鲜,这些是我们六年前推出SageMaker的原因之一——打破模型训练和部署中涉及的许多障碍,并为开发人员提供更简单的方式。成千上万的客户使用Amazon SageMaker,其中越来越多的客户,如LG AI Research、Perplexity AI、AI21、Hugging Face和Stability AI,正在SageMaker上训练LLMs和其他FMs。就在最近,Technology Innovation Institute(流行Falcon LLMs的创造者)在SageMaker上训练了最大的公开可用模型——Falcon 180B。随着模型的大小和复杂性的增长,SageMaker的范围也在扩大。

多年来,我们在Amazon SageMaker上添加了380多个改变游戏规则的功能和能力,如自动模型调优、分布式训练、灵活的模型部署选项、ML OPs工具、数据准备工具、特征存储、笔记本电脑、与ML生命周期中的人机协作评估无缝集成以及用于负责任AI的内置功能。我们持续快速创新,确保SageMaker客户能够继续构建、训练和运行所有模型,包括LLMs和其他FMs。我们正在推出两项新功能,使客户更容易和更具成本效益地训练和部署大型模型。首先,为了简化训练,我们引入了Amazon SageMaker HyperPod,它自动化了更多需要高规模容错分布式训练的过程(例如配置分布式训练库、将训练工作负载扩展到数千个加速器、检测和修复故障实例),可以将训练加速多达40%。因此,Perplexity AI、Hugging Face、Stability、Hippocratic、Alkaid等客户正在使用SageMaker HyperPod构建、训练或演化模型。其次,我们正在引入新的功能,使推断更具成本效益,同时降低延迟。SageMaker现在可以帮助客户将多个模型部署到同一实例上,以共享计算资源,从而将推断成本降低了50%(平均)。SageMaker还会主动监控正在处理推断请求的实例,并根据可用的实例智能路由请求,从而实现了20%的较低推断延迟(平均)。Conjecture、Salesforce和Slack已经使用SageMaker来托管模型,这是由于这些推断优化。

堆栈的中间层:亚马逊Bedrock增加了新模型和一系列新功能,让客户更轻松地构建和扩展生成式AI应用程序

虽然许多客户将构建自己的LLM和其他FMs,或者改进任意数量的公开可用选项中的任何一个,但许多人不想花费资源和时间来做这些。对于他们来说,堆栈的中间层作为一项服务提供这些模型。我们的解决方案,Amazon Bedrock,允许客户从Anthropic、Stability AI、Meta、Cohere、AI21和Amazon的行业领先模型中选择,并使用自己的数据进行定制,并利用AWS中相同的领先安全性、访问控制和功能,通过托管服务实现所有这些。我们于九月底提供了Amazon Bedrock,客户的反馈非常积极。来自世界各地和几乎所有行业的客户都对使用Amazon Bedrock感到兴奋。阿迪达斯帮助开发者在“入门”信息到深层技术问题上获得快速答案。Booking.com打算使用生成式AI为每个客户编写定制的旅行建议。桥水协会正在开发一个由LLM驱动的投资分析助手,用于生成图表、计算财务指标和总结结果。Carrier此次使得更精确的能源分析和见解可供客户使用,以便降低能源消耗并减少碳排放。Clariant正在为团队成员提供内部生成式AI聊天机器人,以加速研发流程,与销售团队在会议准备方面提供支持,并自动发送电子邮件给客户。GoDaddy正在通过生成式AI帮助客户轻松搭建在线业务,包括构建网站、寻找供应商、与客户建立联系等。Lexis Nexis Legal & Professional正在用Lexis+ AI对话式搜索、摘要和文档起草和分析功能来改变律师的法律工作,并提高他们的生产力。纳斯达克正在帮助自

堆栈的顶层:持续创新使生成式人工智能面向更多用户

在堆栈的顶层,利用LLM和其他FMs的应用可以让您在工作中充分利用生成式人工智能。生成式人工智能已经在编码领域改变了游戏规则。去年,我们推出了Amazon CodeWhisperer,通过实时生成代码建议和推荐,帮助您更快、更安全地构建应用程序。像Accenture、波音、德甲联赛、Cigna集团、科尼公司和华纳音乐集团这样的客户正在使用CodeWhisperer来提高开发者的生产力,而Accenture则正在为其50000名软件开发人员和IT专业人员提供Amazon CodeWhisperer的支持。我们希望尽可能多的开发者能够获得生成式人工智能的生产力益处,这就是为什么CodeWhisperer免费为所有个人提供建议。

然而,尽管AI编码工具在让开发人员的工作变得更轻松方面发挥了很大作用,但它们在内部代码库、内部API、库、包和类的知识方面的不足限制了其生产力的好处。一个思考这个问题的方式是,如果您雇用了一位新的开发者,即使他们是世界一流的,他们在公司内部不了解您的最佳实践和代码之前也不会那么高效率。目前的AI驱动的编码工具就像那位新员工一样。为了解决这个问题,我们最近在Amazon CodeWhisperer中预览了一项新的定制功能,它安全地利用客户的内部代码库来提供更相关和有用的代码建议。有了这个功能,CodeWhisperer成为您代码方面的专家,提供更相关的建议,以节省更多时间。我们与全球数字工程和企业现代化公司Persistent合作进行的一项研究发现,与CodeWhisperer的一般功能相比,定制功能可帮助开发者完成任务的速度提高了28%。现在,医疗技术公司的开发人员可以要求CodeWhisperer“导入与客户ID关联的MRI图像,并通过图像分类器运行它们”以检测异常。由于CodeWhisperer可以访问代码库,它可以提供更相关的建议,包括MRI图像和客户ID的导入位置。CodeWhisperer完全保护定制功能的隐私,底层FM不会使用它们进行训练,以保护客户的有价值的知识产权。AWS是唯一一个为每个人提供这样能力的主要云服务提供商。

介绍Amazon Q:定制为工作的生成式AI助理

开发者并不是唯一一个可以使用生成式人工智能的人,数百万人正在使用生成式人工智能聊天应用程序。这个领域的早期提供者在给消费者带来令人兴奋和非常有用的功能,但在很多方面,它们并不太适用于工作场所。他们的一般知识和能力是很好的,但他们不了解您的公司、您的数据、您的客户、您的运营或您的业务。这限制了他们能够帮助您的程度。它们也不了解您的角色,不知道您的工作内容、您与谁合作、您使用的信息以及您可以访问的内容。这些限制是可以理解的,因为这些助手没有获得您公司的私有信息的访问权限,它们也没有设计满足企业对数据隐私和安全性的要求。事后追加安全性很难奏效。我们认为我们有更好的方式,可以让每个组织中的每个人都可以在日常工作中安全地使用生成式人工智能。

我们很高兴地推出Amazon Q,这是一种新型的、专门为工作而设计的生成式AI助手,可以根据您的业务进行定制。Q可以帮助您快速获取相关问题的答案,解决问题,生成内容,并利用您公司的信息库、代码和企业系统中的数据和专业知识采取行动。当您与Amazon Q交谈时,它会提供即时的相关信息和建议,帮助简化任务、加快决策速度,并在工作中激发创造力和创新。我们为Amazon Q提供了安全和私密的设计,它可以理解和尊重您现有的身份、角色和权限,并利用这些信息对其进行个性化的交互。如果用户没有权限通过Q访问某些数据,他们就无法使用Q进行访问。我们在设计Amazon Q时就满足了严格的企业客户要求,他们的任何内容都不会被用于改善底层模型。

亚马逊Q是您的专家助手,用于在AWS上构建:我们已经将亚马逊Q训练成了拥有17年AWS知识和经验的专家助手,因此它可以改变您在AWS上构建、部署和运行应用程序和工作负载的方式。亚马逊Q在AWS管理控制台中有一个聊天界面和文档,您的IDE(通过CodeWhisperer)、您的Slack或其他聊天应用的团队聊天室。亚马逊Q可以帮助您探索新的AWS能力,更快地入门,了解陌生的技术,架构解决方案,进行故障排除,升级等等——它是AWS架构良好模式、最佳实践、文档和解决方案实施的专家。以下是一些您可以通过您的新AWS专家助手完成的示例:

  • 获取关于AWS能力、服务和解决方案的清晰答案和指导:问亚马逊Q“告诉我关于Amazon Bedrock代理的情况”,Q将为您提供该功能的描述以及相关材料的链接。您还可以向亚马逊Q询问关于AWS服务如何工作的任何问题(例如:“DynamoDB表的扩展限制是什么?”“什么是Redshift托管存储?”)或者如何构建任意数量的解决方案的最佳实践(例如:“构建事件驱动架构的最佳实践是什么?”)。亚马逊Q将提供简明扼要的答案,并始终引用(并链接到)其来源。
  • 选择最适合您的用例的AWS服务,并快速入门:问亚马逊Q“在AWS上构建Web应用程序的方式有哪些?”它将提供一份潜在服务的列表,如AWS AmplifyAWS LambdaAmazon EC2,并说明各自的优点。然后,您可以通过帮助Q了解您的要求、偏好和约束(例如:“如果我想使用容器,哪个是最好的?”或者“我应该使用关系型数据库还是非关系型数据库?”)来缩小选项范围。最后,请问“如何入门?”亚马逊Q将概述一些基本步骤,并指导您进一步了解其他资源。
  • 优化计算资源:亚马逊Q可以帮助您选择Amazon EC2实例。如果您询问“帮助我找到最适合我的游戏应用程序进行视频编码工作负载的EC2实例,以获得最高性能”,Q将为您提供一份具有每个建议理由的实例系列列表。而且,您可以询问任意数量的后续问题,以帮助找到最适合您工作负载的最佳选择。
  • 获取调试、测试和优化代码的帮助:如果您在IDE中编码时遇到错误,您可以请求亚马逊Q的帮助,说“我的代码遇到了IO错误,能否提供修复方法?” Q将为您生成代码。如果您喜欢这个建议,您可以要求亚马逊Q将修复方法添加到您的应用程序中。由于亚马逊Q位于您的IDE中,它了解您正在工作的代码,并知道在哪里插入修复方法。亚马逊Q还可以创建单元测试(“为所选函数编写单元测试”),它可以将这些单元测试插入到您的代码中供您运行。最后,亚马逊Q可以告诉您如何优化您的代码以获得更高的性能。请问Q“为我的选择的DynamoDB查询进行优化”,它将根据它对您代码的理解,提供一个自然语言的建议以及单击一次实施的相应代码。
  • 诊断和排除问题:如果您在AWS管理控制台中遇到问题,例如EC2权限错误或Amazon S3配置错误,您可以简单地按下“与亚马逊Q一起进行故障排除”按钮,它将根据错误类型和错误所在的服务的理解,向您提供修复建议。您甚至可以要求亚马逊Q进行网络故障排除(例如:“为什么无法使用SSH连接到我的EC2实例?”),Q将分析您的端到端配置,并提供诊断结果(例如:“该实例似乎在私有子网中,因此可能需要建立公共可访问性”)。
  • 快速上手新的代码库:当您与IDE中的亚马逊Q交谈时,它结合了构建软件的专业知识和对您代码的理解,这是一个强大的组合!以前,如果您接手了其他人的项目或是新加入团队,您可能需要花费数小时手动查看代码和文档,以了解它是如何工作和做什么的。现在,由于亚马逊Q了解您IDE中的代码,您只需简单地要求亚马逊Q解释该代码(“给我提供描述该应用程序的内容和它的工作原理”),Q将给出详细信息,例如代码使用的哪些服务以及不同函数的作用(例如,Q可能回答:“该应用程序使用Python Flask和AWS Lambda构建一个基本的支持票务系统”,然后描述其各项核心功能、实现方式等等)。
  • 更快地清理您的功能积压:您甚至可以要求亚马逊Q通过我们团队的统一软件开发服务Amazon CodeCatalyst来引导您完成并自动化添加功能到您的应用程序的整个端到端过程。您只需将积压的任务从问题列表中分配给Q,就像分配给队友一样,Q会为其构建和实施功能生成一份逐步计划。一旦您批准计划,Q将编写代码,并将建议的更改作为代码审查呈现给您。您可以请求重新处理(如果有必要),批准和/或部署!
  • 在极短的时间内升级您的代码:实际上,大多数开发人员只花费很少的时间编写新代码和构建新应用程序。他们更多的时间都花在痛苦的维护和升级等方面。以语言版本升级为例。大量客户继续使用旧版的Java,因为升级将需要数月甚至数年的时间,以及数千小时的开发人员时间。推迟升级会带来真正的成本和风险——您错过了性能改进,也容易遭受安全问题。我们认为亚马逊Q在这方面可以成为一个重大改变,并对亚马逊Q代码转换感到兴奋,这是一个可以消除大量负担并将升级应用程序所需的时间从几天减少

    Amazon Q 是您的商业专家:您可以将 Amazon Q 连接到您的业务数据、信息和系统,让它综合一切并提供量身定制的帮助,帮助人们解决问题、生成内容并采取适合您业务的行动。将 Amazon Q 引入您的业务很容易。它拥有 40 多个内置连接器,可以连接到诸如 Amazon S3、Microsoft 365、Salesforce、ServiceNow、Slack、Atlassian、Gmail、Google Drive 和 Zendesk 等流行的企业系统。它还可以连接您的内部内联网、维基和运行手册,并结合 Amazon Q SDK,您可以构建与任何内部应用程序的连接。将 Amazon Q 指向这些存储库,它将开始了解和捕捉使您公司独特的语义信息。然后,您可以获得自己友好和简单的 Amazon Q 网页应用程序,使公司中的员工可以与会话界面进行互动。Amazon Q 还可以连接到您的身份提供程序,以了解用户、角色和他们有权访问的系统,从而使用户可以提出详细、细致入微的问题,并获得仅包含他们有权查看的信息的定制结果。Amazon Q 生成的答案和见解准确而忠实于您提供的材料和知识,您可以限制敏感主题、阻止关键词或过滤不适当的问题和答案。以下是您的企业新专家助手可以帮助您实现的一些示例:

    • 根据您的业务数据和信息获得清晰、超相关的答案:员工可以向 Amazon Q 提问以前可能需要在各种来源中搜索的任何内容。例如,询问“有关徽标使用的最新指南是什么?”或“我如何申请公司信用卡?” Amazon Q 将综合找到的所有相关内容,并提供快速答案以及相关来源的链接(例如品牌门户和徽标存储库、公司 T&E 政策和卡申请)。
    • 简化日常沟通:只需询问,Amazon Q 就可以生成内容(“创建一篇博客文章和三个社交媒体标题,宣布文档中描述的产品”)、创建执行摘要(“撰写我们的会议记录摘要,列出行动项的项目符号列表”)、提供电子邮件更新(“起草突出我们在印度的第三季度培训计划的电子邮件”)并帮助组织会议(“创建一个会议议程,讨论最新的客户满意度报告”)。
    • 完成任务:Amazon Q 可以帮助完成某些任务,减少员工在重复性工作(如提交工单)上所花费的时间。询问 Amazon Q “在 Slack 上总结有关新价格优惠的客户反馈”,然后请求 Q 将这些信息整理并在 Jira 中打开一个工单,以更新营销团队。您可以要求 Q “总结此通话记录”,然后“在 Salesforce 中为客户 A 开新案例”。Amazon Q 还支持其他流行的工作自动化工具,如 Zendesk 和 ServiceNow。

    Amazon Q 在 Amazon QuickSight 中:在 AWS 的商业智能服务 Amazon QuickSight 中,用户可以向仪表板提问,例如“上个月订单数量为什么增加?”并获得呈现影响增加的因素的可视化和解释。分析员可以使用 Amazon Q 将从几天的时间缩短到几分钟构建仪表板所需的时间,只需使用简单的提示词,例如“用堆叠柱状图显示按地区按月份的销售”。Q 立即返回该图表,并且您可以轻松将其添加到仪表板或与 Q 进一步讨论以完善可视化(例如,“将柱状图改为桑基图”,或“显示国家而不是地区”)。Amazon Q 在 QuickSight 中还使使用现有仪表板向业务利益相关者提供信息、梳理关键见解和简化决策变得更加容易,使用数据故事。例如,用户可以提示 Amazon Q “建立一个关于过去一个月业务变化的故事,用于与高级领导层的业务审查”,然后 Amazon Q 在几秒钟内提供了一个可视化引人入胜且完全可定制的数据驱动故事。这些故事可以在整个组织中安全地共享,以帮助各利益相关者达成共识并做出更好的决策。

    Amazon Q 在 Amazon Connect 中:在 Amazon Connect,我们的联系中心服务中,Amazon Q 帮助您的客户服务代表提供更好的客户服务。Amazon Q 利用您的代表通常用来为客户获取信息的知识存储库,然后代表可以直接在 Connect 中与 Amazon Q 进行聊天,以获得帮助他们更快地回应客户请求的答案,而无需自行搜索文档。而且,在与 Amazon Q 进行超快速答案交流的同时,在客户服务中,没有过快的概念。这就是为什么Amazon Q 在 Connect 中将与代理商的实时客户对话转化为提示,并自动为代理商提供可能的响应、建议的操作和资源链接。例如,Amazon Q 可以检测到客户正在联系租车公司更改预订,并为代理商生成一个响应,快速传达公司的更改费政策适用,并指导代理商完成更新预订的步骤。

    亚马逊Q即将在AWS供应链中推出:在AWS供应链中,我们的供应链洞察服务Amazon Q帮助供需规划师、库存经理和贸易伙伴通过总结和突出潜在的缺货或库存过剩风险,并可视化解决方案的场景来优化他们的供应链。用户可以问亚马逊Q有关他们的供应链数据的“什么”、“为什么”和“如果”问题,并通过复杂情景进行交流,以及不同供应链决策之间的权衡。例如,客户可能会问:“是什么导致了我的货物延迟,我如何加快速度?”亚马逊Q可能会回答:“你订单的90%在东海岸,东南部的大风暴导致了24小时的延迟。如果你改为将货物运到纽约港而不是迈阿密,你将加快交货速度并减少50%的成本。”

    我们的客户迅速采用生成式人工智能,他们正在AWS上训练突破性模型,使用Amazon Bedrock以创纪录的速度开发生成式人工智能应用,并在整个组织中部署具有改变游戏规则的应用程序,例如亚马逊Q。通过我们最新的公告,AWS为每个层次的堆栈带给客户更高的性能、选择和创新。我们在re:Invent上提供的所有功能的综合影响,标志着达到一个令人振奋和有意义目标的重要里程碑:我们使生成式人工智能对所有规模和技术能力的客户都可以获得,以便他们能够重新创造和改变可能性。

    资源