“人工智能和增强现实正在推动数据需求——开源硬件正在应对挑战”
AI and AR driving data demand - Open-source hardware tackling challenges
数据是数字经济的命脉,随着新技术的出现和发展,数据中心对更快的数据传输速率、更低的延迟和更高的计算能力的需求呈指数增长。新技术正在推动数据传输和处理的边界,并采用开源技术可以帮助数据中心运营商最大化其当前运营,并为未来做好准备。以下是一些推动高计算需求的技术示例,以及开源技术、社区和标准如何以可持续的方式帮助满足这种需求。
人工智能和机器学习
人工智能(AI)和机器学习(ML)技术正在革命化各个领域,如自然语言处理、计算机视觉、语音识别、推荐系统和自动驾驶汽车。AI和ML使计算机能够从数据中学习并执行通常需要人类智能的任务。
然而,AI和ML也需要大量的数据和计算能力来训练和运行复杂的模型和算法。例如,GPT-3是世界上最先进的自然语言模型之一,拥有1750亿个参数,并在45TB的文本数据上进行了训练。为了高效处理如此大规模的数据集和模型,AI和ML应用需要能够提供高速数据传输率、低延迟和高计算能力的高性能计算(HPC)系统。
HPC的一个新兴趋势是使用专用处理器,如GPU或TPU,这些处理器针对AI和ML工作负载中常见的并行处理和矩阵运算进行了优化。例如,NVIDIA的Grace CPU是一种专为HPC应用而设计的新型处理器,利用NVIDIA的GPU技术,可提供比当前x86 CPU高10倍的性能。Grace CPU还支持快速互连,如NVLink,可以在CPU和GPU之间实现高速数据传输率。
增强现实和虚拟现实
Apple Vision Pro在发布时引起了巨大的轰动。增强现实(AR)和虚拟现实(VR)是两种最具沉浸感和互动性的技术,正在改变娱乐、教育、医疗保健和制造等各个行业。AR将数字信息叠加在现实世界之上,而VR则创建了一个完全模拟的环境,用户可以通过头戴式显示器体验。
然而,这些技术也对数据传输和处理提出了重大挑战。由于Apple Vision Pro最近发布,关于它的细节仍然待定。然而,其他VR头戴设备已经上市一段时间了,因此我们可以做一些假设。例如,Oculus Quest 2等VR头戴设备需要与PC或云服务器进行高速连接,以传输高质量的视频和音频内容,以及来自头戴设备和控制器的跟踪和输入数据。视频比特率(每秒传输的数据量)取决于GPU在PC或服务器端对信号进行编码的速度,以及Quest 2处理器在头戴式设备端对信号进行解码的速度。
据Oculus称,VR流媒体的推荐比特率介于150 Mbps到500 Mbps之间,具体取决于分辨率和帧率。这意味着VR流媒体所需的数据传输速率要远高于其他在线活动,如网页浏览或音乐流媒体。此外,VR流媒体还需要低延迟,即信号从一个点到另一个点所需的时间。高延迟可能导致游戏卡顿或抖动,破坏沉浸感并引发晕动病。
延迟取决于多个因素,如网络速度、设备之间的距离以及编码和解码算法。根据Oculus的说法,VR流媒体的理想延迟应低于20毫秒。然而,实现这种性能水平并不容易,特别是在无线连接(如Wi-Fi或5G)下。
用于数据中心优化的开源技术
随着新技术推动对更快的数据传输速率、更低的延迟和更高的计算能力的需求,数据中心运营商面临着一些挑战,如不断增长的功耗、对新的冷却要求的需求、空间利用率、运营成本以及硬件创新和更新的快速步伐。为了应对这些挑战,数据中心运营商需要优化其当前基础设施,并采用能够提高其效率和可扩展性的新标准和技术。
这就是Open19项目的目标,它是可持续和可扩展基础设施联盟(SSIA)的一个倡议,现已成为Linux基金会的一部分。Open19项目是一个基于常见形态因子的数据中心硬件开放标准,提供下一代高效能的电力分配、可重复使用的组件和新兴高速互连的机会。SSIA的使命以及通过Open19项目创建的开放标准与整个行业朝向为支撑我们的数字生活和社区的基础设施的效率、可扩展性和可持续性的努力保持一致。Open Compute Project是另一个旨在有效支持计算基础设施不断增长需求的努力。该项目同样促进了行业合作伙伴之间的社区驱动协作,以开发数据中心解决方案,重点是大型机房和超大规模使用的21英寸服务器机架尺寸。OCP的范围还延伸到数据中心设施以及服务器的内部IT组件。
结论
新技术推动了对数据中心更快的数据传输速率、更低的延迟和更高的计算能力的需求,与此同时,社区、政府和公司也关注资源管理以及围绕水资源利用、电力管理和其他碳排放密集方面的可持续性问题。采用在SSIA和Linux Foundation等社区驱动论坛中开发的开源技术,可以帮助数据中心运营商最大化其当前运营,并为满足这些令人兴奋的新应用的需求,为更可持续的未来做好准备。