生成式人工智能可以改变世界——但只有数据基础设施跟得上的情况下

生成式人工智能改变世界,必须有跟得上的数据基础设施

尽管有关生成式人工智能(Generative AI)的讨论很热烈,但大多数行业专家尚未回答一个重要问题:是否存在一个可以长期支持这种技术的基础设施平台?如果存在,它是否足够可持续,以支持生成式人工智能承诺的激进创新?

生成式人工智能工具已经建立了相当的声誉,它们能够以一键点击的方式编写出合成性很好的文本,而这些任务如果以手动完成则可能需要数小时、数天、数周或数月的时间。

这一切都很好,但在没有适当的基础设施的情况下,这些工具只是缺乏可扩展性,无法真正改变世界。生成式人工智能的运营成本已经将接近760亿美元,这已经证明了这一事实,但还有其他因素在起作用。

企业需要专注于创建和连接适当的工具,以可持续地利用它,并且必须投资于一个集中化的数据基础设施,使所有相关数据对他们的LLM(Large Language Model)无需专用管道即可无缝访问。通过战略性地实施适当的工具,他们将能够实现他们所寻求的商业价值,尽管数据中心目前存在容量限制,只有这样,人工智能革命才能真正推进。

一个熟悉的模式

根据Capgemini研究院的一份新报告,74%的高管认为生成式人工智能的好处胜过其担忧。这样的共识已经促使企业高度采用这些技术,亚太地区约有70%的组织已表示有意投资这些技术或已开始探索实际应用案例。

但世界以前已经走过这条路。以互联网为例,它逐渐吸引了越来越多的关注,然后通过众多引人注目的应用程序超出了预期。但尽管它具有令人印象深刻的功能,只有当其应用程序开始以规模交付有形价值给企业时,它才真正起飞。

超越ChatGPT

人工智能正在陷入类似的循环。企业已经迅速投入了这项技术,据估计,93%的企业已经参与了数个人工智能/机器学习的应用案例研究。但不管采用率有多高,许多企业仍然在部署方面遇到困难,这是不兼容的数据基础设施的一个明显迹象。

有了适当的基础设施,公司就可以超越生成式人工智能诱人的能力表面,发挥其真正的潜力,改变其业务景观。

确实,生成式人工智能可以帮助快速撰写简要,而且在大多数情况下非常有效,但其潜力远不止于此。从潜在的药物发现到医疗治疗再到供应链优化,如果支持和推动人工智能应用的数据中心不能够强大到足以管理其工作负载,这些突破是不可能的。

克服可扩展性障碍

生成式人工智能尚未对企业产生重大价值,因为它缺乏可扩展性。这是因为数据中心存在容量限制,它们的基础设施并不是最初为了支持大规模探索、编排和模型调优所设计,而这是LLM(Large Language Model)运行多个训练周期所需要的。

因此,从生成式人工智能中获得价值取决于企业如何充分利用自己的数据,这可以通过开发强大的数据架构来实现。这可以通过将结构化和非结构化数据源连接到LLM或增加现有硬件的吞吐量来实现。

对于希望对组织数据进行LLM训练的公司来说,将数据以统一的方式整合起来是至关重要的。否则,留在孤立结构中的数据可能会在LLM的学习能力中产生偏见。

一个支持系统

生成式人工智能不是凭空出现的 – 它已经在酝酿已久,并且在未来几十年中,其使用和潜力只会增长。但目前它的商业应用正在遇到无法扩展的障碍。

实际情况是,这些各种各样的工具只有在支持它们的数据处理基础设施足够强大时才能发挥其真正的作用。因此,企业领导者关键是利用能够处理这些工具所需的海量数据的平台,以实现它们所承诺的重大价值。