今天公司可以实施的5个生成型人工智能用例

今日公司可实施的5个生成型人工智能实例

图片由作者提供。

深度学习人工智能的热潮是真实的,数据和机器学习团队正在感受到压力。

在各行各业中,高管们正在推动他们的数据领导者构建能节省时间、带来收入或给他们带来竞争优势的人工智能产品。

OpenAI、Google、Amazon和Microsoft等科技巨头一直在市场上推出由大型语言模型(LLMs)和生成图像扩散模型驱动的功能。它们承诺帮助公司进行规模化数据分析、总结和综合信息、生成内容以及改变他们的业务。

但是,当公司开始将生成性人工智能纳入时,大多数公司从何处开始?哪些生成性人工智能应用案例是现实的、可行的,而且真正值得投资回报率呢?

我们深入研究了早期采用者的策略,了解公司如何使用这项技术,并了解数据团队在大规模实施生成AI时的要求。

为知识工作者构建更高效的工作流程

在各行各业中,公司通过自动化和简化知识工作者的耗时过程来推动早期的生成AI应用案例。

鉴于LLMs能够理解和提取非结构化数据的洞察力,企业发现摘要、分析、搜索和挖掘大量内部信息的洞察力具有价值。让我们探讨一下几个关键领域如何运用生成AI。

在法律行业,AI技术支持了如下几个方面:

  • 自动监测法规以确保客户及时了解合规情况
  • 起草和审查标准文件,如遗嘱和合同
  • 通过审查大量文件识别潜在风险和问题来辅助尽职调查工作
  • 分析合同以标记潜在问题或提出修订意见
  • 通过从案例法、法律条文、期刊、法规等相关出版物中识别、分析和概述相关信息来辅助法律研究

技术解决方案:法律团队正在采用专门针对法律系统的定制模型或精调LLMs的解决方案,包括CoCounsel(由GPT-4提供支持)、HarveyThomson Reuters的软件套件。

实际应用案例:伦敦律师事务所Macfarlanes使用Harvey来支持研究、分析和概述文件,并为电子邮件和备忘录创建初稿,包括客户工作 – 由人类律师审查其工作。

金融服务

早在2023年初,高盛和花旗集团等华尔街机构由于数据隐私的顾虑,曾经禁用ChatGPT。尽管存在“反人工智能”头条新闻,但金融行业多年来一直在使用机器学习算法 – 用于支持欺诈检测算法和即时信用决策。金融产品和机构中的潜在生成AI应用案例也有很大的潜力。

然而,目前,Databricks估计金融服务业中80%的生成AI应用案例侧重于优化流程以节省时间和资源。这包括:

  • 可以将内部文件用作知识库的对话式金融聊天机器人
  • 自动化基本会计功能,如发票捕获和处理
  • 分析、总结和提取年度报告、保险合同和收益电话转录等文件中的见解

此外,业界领导者认为人工智能的能力来检测和阻止金融犯罪和欺诈是一个极具吸引力的应用。

技术解决方案:定制解决方案正在兴起,包括为金融服务专门开发的500亿参数LLM,如BloombergGPT。

真实案例:2023年9月,摩根士丹利推出了一款AI助手,支持财务顾问通过提供对其内部研究报告和文件数据库的便捷访问。员工可以使用该工具提出关于市场、内部流程和建议的问题。

销售团队

销售和营销团队正在大量采用生成式人工智能,如以下用例:

  • 撰写电子邮件、落地页、博客文章和其他内容的初稿
  • 根据CRM数据为个别外联量身定制内容
  • 分析销售互动以辅导代表
  • 根据人口统计数据、公司数据和数字行为自动化潜在客户评分
  • 总结电话和视频会议的互动

技术解决方案:销售平台如Gong使用专有模型生成电话总结和推荐下一步操作,Salesforce的Einstein Copilot根据客户的特定环境自动生成电子邮件回复和账户更新。

真实案例:账户参与平台6sense在潜在客户沟通中使用了启用AI的对话式电子邮件解决方案,为市场参与账户创造了新的销售线索10%。

自动化工程和数据流程

通过自动化编码和数据工程的重复或单调方面,生成式人工智能正在简化工作流程,提高软件和数据工程师的工作效率。

例如,团队可以使用生成式AI来:

  • 自动生成代码块并审查代码错误
  • 自动调试和纠正小错误,或预测可能出现错误的位置
  • 生成大量模拟真实世界信息的合成数据,以便工程师可以在测试模型时不必担心隐私问题
  • 自动生成关于代码和项目的详细文档
  • 更容易将传统软件(在金融领域和相当大的成本中充满回忆的COBOL语言)更新为现代化语言

LLM也被直接纳入开发者解决方案中。例如,在Monte Carlo平台内,我们利用OpenAI API支持两个功能——Fix with AI和Generate with AI,帮助团队更好地运用数据可观测性。Fix with AI使用LLM识别数据质量检查中的错误,而Generate with AI使用LLM生成新的数据质量检查建议。

即使在OpenAI自身,LLM也用于支持DevOps和内部功能。正如AI专家负责人Yaniv Markovsi告诉我们的那样,他们的团队使用GPT模型聚合和翻译操作信号,如服务器日志或社交媒体事件,以了解客户使用他们产品时的体验。这比传统方法,即现场可靠性工程团队手动调查和处理事件,更加简化。

技术解决方案:工程团队正在采用GitHub Copilot和Amazon的CodeWhisperer等工具来支持他们的日常工作流程。开发人员可以提供自然语言提示,并获得Python、JavaScript、Ruby等语言的代码片段和建议。

真实应用案例:一家全球媒体公司的数据工程团队正在使用LLMs将pull请求分类到dbt工作流程中的不同级别的必要分类中。根据变更的分类,模型会触发不同的构建命令。这有助于大大简化开发工作流程 – 因为该团队的替代方法是硬编码一些复杂的解析来确定哪个命令适合测试变更。

与公司的其他成员共享数据

在数据世界中,为非技术消费者增加对数据的利用可能是企业利用生成AI最成熟的机会。LLMs为组织中的各个团队成员提供了一条路径,可以输入自然语言提示,生成SQL查询以检索特定数据点或回答复杂问题。

亚当·康威(Adam Conway),Databricks的产品高级副总裁,最近强调这正是公司应该采取的明确第一步。

亚当说:“我见过一些需要能够让内部团队从数以万计的记录中检索答案的行业的案例。这是正确的方法,因为风险很低 – 它使您能够亲自动手,提供了很多价值,并且不会带来很多风险。在Databricks,我们有一个内部聊天机器人,帮助员工解决问题并查看他们的数据。我们看到很多价值。”

技术解决方案:像Databricks这样的平台正在开发嵌入式功能 – 他们最近宣布了LakehouseIQ,承诺使团队能够用简明的语言查询他们的数据。

虽然这些技术仍在不断发展,但数据团队可以根据内部文档或知识库来调优模型,为组织构建定制能力 – 或者利用生成AI帮助员工快速进行自助查询,就像我们的实际案例所描述的那样。

真实应用案例:直播购物平台Whatnot极力推崇每个员工都了解SQL,这样他们就可以查询自己的数据,创建自己的仪表板,并编写自己的dbt模型 – 即使在非技术部门如市场营销、财务和运营。生成AI在员工培训中发挥了作用。

正如工程总监Emmanuel Fuentes最近告诉我们的:“它帮助人们启动。如果他们在SQL方面没有背景,它能够帮助他们快速上手,这真是太棒了。例如,如果有人不知道如何使用窗口函数,他们可以描述自己想要做什么,得到一段SQL代码,然后将我们的数据表替换进去。就像有个导师可以帮助那些不懂高级分析的人一样。”

扩展客户支持

客户支持团队是使用LLM启用工作流程的特别理想受众之一。通过将语义搜索与基本聊天机器人和工作流程结合起来,数据团队可以使客户支持团队更快地访问信息,创建回复,并解决请求。

技术解决方案:一些CX解决方案已经在其平台中包含了生成AI的功能。例如,Oracle的Fusion Cloud CX使用LLM引用内部数据,帮助代理人根据客户交互历史生成即时响应服务请求,并针对新出现的服务问题提供新的知识库内容建议。

真实应用案例:Vimeo的工程师们使用生成AI构建了一个帮助台聊天原型。该工具将公司的Zendesk托管的帮助文章索引到一个向量存储(详情请见下文有关向量数据库的内容),并将该存储连接到LLM提供者。当客户与现有前端聊天机器人的对话不成功时,将对话记录发送到LLM以寻求进一步帮助。LLM将问题转述为一个单一的问题,查询向量存储以获取相关内容的文章,并接收结果中的相关文档。然后,LLM会为客户生成最终的摘要答案。

支持翻译和语言服务

最后,生成AI使得自动实时翻译和语言支持成为可能,这对组织具有重要意义,因为它们每年在语言服务上花费近600亿美元,但只翻译了一小部分自己制作的内容。像GPT-4这样的LLMs有潜力帮助团队提供多语种客户服务交互,进行全球情绪分析,并快速本地化内容。

技术解决方案:目前,大多数模型可能缺乏训练数据以精通非常用语言,也无法掌握行话或行业专门术语,因此团队可能需要微调模型以产生可靠的结果。话虽如此,谷歌正在开发一种训练于400多种语言的通用语音模型,旨在构建一种通用翻译器。

真实案例应用:在传统翻译模型的独特变化中,健康技术公司Vital推出了一种由人工智能驱动的医生-病人翻译器,可以即时将高度技术化的医学术语转化为简明语言。

开始实施通用AI时的三个关键考虑因素

在团队进入不断变化的通用AI领域时,有几个关键考虑因素需要牢记。

补充技术堆栈

拥有适合通用AI支持的正确技术堆栈将帮助团队更快地扩展并创造价值。除了常规的现代数据堆栈组件外,您还需要考虑添加以下内容:

向量数据库

向量数据库目前是团队构建使用OpenAI的LLMs可扩展应用的最有效方法之一。这些数据库能够进行向量嵌入,这些嵌入携带语义信息,有助于AI理解数据内部的关系和模式。

团队可以使用独立的向量数据库,如PineconeZilliz,或者使用现有数据存储解决方案中的向量嵌入功能,如DatabricksSnowflake

微调模型

对于需要更多定制需求的团队来说,微调模型(即在特定数据集上对预训练模型进行训练以满足需求)很可能是向量嵌入之外的下一步。像TensorflowHuggingFace这样的工具是微调模型的好选择。

非结构化或流式数据处理

生成式AI通常通过从大量非结构化数据中提取洞察来提供最大价值。如果您尚未将非结构化数据处理纳入您的堆栈中,您可能需要使用工具,如Spark(如果您正在处理流式数据,可以使用Kafka)。

确保正确的团队和资源

创建一个AI试点项目需要时间和资源。即使您可能有一位无所不用其极的CEO愿意没有任何限制地将通用AI引入您的产品或业务中,但仍然很重要要有一个现实的想法,对此需要多长时间以及会花费多少成本。

建立您的团队

您可能会将现有员工重新指派到原型制作或验证概念上,而不是立即雇佣经验丰富的通用AI开发人员(部分原因是这是一个全新的领域,所以经验丰富的通用AI开发人员实际上还不存在)。这些虎队通常由具有一些机器学习背景的数据工程师填补。

换句话说,您的一些重要人员将需要从即时产生收入的工作中转移,来负责您的AI试点项目。考虑到固有的机会成本,并将其纳入您的整体计划中,并与一个能够在保持团队与业务价值接近的同时倡导这种资源转变的商业赞助人匹配。

考虑您的硬件成本

如果您计划对模型进行微调,并且对ML Ops还不熟悉,请预测并注意您将为所有这些定制训练支付的计算成本。这些GPU小时数可能会相加。

优先考虑数据质量

无论你的技术栈、模型选择或者使用场景如何,有一个真理始终存在:你需要确保数据输入和数据输出的质量。否则,你将面临将糟糕的数据暴露给更多的内部团队的风险,无论是通过自然语言提示直接传达还是通过通用人工智能产品间接传达。

生成式人工智能有潜力改变每个企业,但也不是没有风险和潜在陷阱。数据测试、数据监控、AI治理数据可观察性有助于确保通用人工智能为你的组织创造巨大的价值,而不是尴尬的数据灾难。

特别感谢Naren Venkatraman,Yaniv Markovski和Emmanuel Fuentes抽出时间与我们聊天为本文做出贡献。