Next-Level Computing:NVIDIA和AMD提供强大的工作站加速人工智能、渲染和模拟功能

突破性的计算能力:NVIDIA和AMD提供强大的工作站,加速人工智能、渲染和模拟功能

为了让全球各行各业的专业人士能够从他们的台式电脑上构建和运行人工智能应用程序,NVIDIA和AMD推出了一系列搭载NVIDIA RTX Ada Generation GPUsAMD Ryzen Threadripper PRO 7000 WX-Series CPUs的新工作站。

这些新平台集成了最高水平的人工智能计算、渲染和仿真能力,使专业人士能够高效地处理最资源密集、大规模的本地人工智能工作流。

将人工智能创新带到桌面

高级的人工智能任务通常需要数据中心级别的性能。例如,训练一个拥有万亿参数的大型语言模型需要数千个GPU运行数周,尽管目前正在研究如何减小模型大小,使其能够在较小的系统上进行模型训练,同时仍然保持高水平的人工智能模型准确性。

新的NVIDIA RTX GPU和AMD CPU驱动的人工智能工作站提供了训练这些较小模型所需的能力和性能,同时还支持本地微调,并帮助分担数据中心和云端资源以进行人工智能开发任务。这些设备允许用户根据工作负载的需求选择单个或多个GPU配置。

较小的训练过的人工智能模型还提供了使用工作站进行本地推断的机会。RTX GPU和AMD CPU驱动的工作站可以配置为运行这些较小的人工智能模型,用于小型工作组或部门的推断服务。

在单个NVIDIA RTX GPU中拥有高达48GB的内存,这些工作站为减少数据中心的计算负载提供了一种经济高效的方法。而当专业人士需要将这些工作站上的训练和部署扩展到数据中心或云端时,NVIDIA AI Enterprise软件平台可以实现工作流和工具链的无缝移植。

RTX GPU和AMD CPU驱动的工作站还能够实现尖端的视觉工作流程。借助加速计算能力,新的工作站可以实现高度互动的内容创作、工业数字化以及高级仿真和设计。

无与伦比的能力、性能和灵活性

AMD Ryzen Threadripper PRO 7000 WX-Series处理器为下一代要求高的工作负载提供了CPU平台。这些处理器在单个插槽内提供了显著增加的核心数-每个CPU高达96个核心,并具有业界领先的最大内存带宽。

将它们与最新的NVIDIA RTX Ada Generation GPUs相结合,将在工作站中带来无与伦比的能力和性能。这些GPU在光线跟踪、人工智能处理、图形渲染和计算任务中的性能可达到上一代产品的2倍。

Ada Generation GPUs选项包括RTX 4000 SFF、RTX 4000、RTX 4500、RTX 5000和RTX 6000。它们基于NVIDIA Ada Lovelace architecture,具备最多142颗第三代RT Core,568颗第四代Tensor Core和18,176颗最新一代CUDA Core。

无论是从建筑和制造到媒体和娱乐以及医疗保健,各行各业的专业人士将能够利用这些新工作站处理具有挑战性的人工智能计算工作负载,同时还能处理3D渲染、产品可视化、仿真和科学计算任务。

可用性

由NVIDIA RTX Ada Generation GPUs和最新的AMD Threadripper Pro处理器驱动的新工作站将于下个月在BOXX和HP上市,其他系统集成商也将很快提供这些产品。