医疗行业中的生成式人工智能需要一剂解释能力
生成式人工智能需要解释能力
文本生成的人工智能工具以惊人的速度完成高级写作和沟通任务,这一点深受公司和消费者的喜爱。但是,这些出色能力背后的过程可能会对敏感的、受政府监管的行业(如保险、金融或医疗保健)进行风险评估,而无法轻易利用生成式人工智能。
最有代表性的例子之一可以在医疗保健行业找到。
这些问题通常与用于训练大型语言模型(LLM)的广泛和多样化的数据集有关,即文本生成的人工智能工具用以执行高级任务的模型。在没有程序员进行明确外部干预的情况下,这些LLM倾向于从互联网上的各种来源无差别地获取数据以扩展其知识库。
这种方法最适用于低风险的面向消费者的用例,其中最终目标是精确引导客户到理想的产品。然而,越来越多的大型数据集和人工智能模型生成输出的混乱路径正在模糊医院和医疗保健提供者所需的可解释性,以便追溯和防止潜在的不准确性。
在这种情况下,可解释性是指理解任何给定LLM的逻辑路径的能力。希望采用辅助生成式人工智能工具的医疗保健专业人员必须有办法了解其模型产生结果的方式,以便患者和员工在各种决策过程中获得完全透明度。换句话说,在生命岌岌可危的医疗保健行业,专业人员对训练其人工智能工具的数据产生错误解读的风险太高。
幸运的是,有一种方法可以规避生成式人工智能的可解释性困境,只需要更多的控制和专注。
神秘和怀疑
在生成式人工智能中,理解LLM如何从输入点A到输出点B的概念比非生成式算法更加复杂,后者沿着更固定的模式运行。
生成式人工智能工具在从输入到输出的过程中建立了无数的连接,但对外部观察者来说,它们如何以及为什么建立任何一系列的连接仍然是个谜。没有办法看到人工智能算法的“思考过程”,人工操作员就缺乏彻底调查其推理和追踪潜在错误的手段。
此外,机器学习算法使用的不断扩大的数据集进一步复杂了可解释性。数据集越大,系统学习的相关和不相关信息就越多,从而产生“人工智能幻觉”——与外部事实和语境逻辑相违背的虚假信息,尽管非常令人信服。
在医疗保健行业,这些类型的错误可能导致一系列问题,如误诊和错误处方。无论是道德、法律还是财务后果,这些错误都可能严重损害医疗保健提供者和他们所代表的医疗机构的声誉。
因此,尽管生成式人工智能有潜力提升医疗干预、改善与患者的沟通并增强运营效率,但在医疗保健领域,它仍然笼罩着怀疑,这是正确的——55%的临床医生不认为它已经准备好用于医疗用途,58%根本不信任它。然而,医疗保健组织正在积极推进,98%的组织正在整合或计划生成式人工智能部署战略,以抵消该行业持续劳动力短缺的影响。
控制数据源
在当前重视效率和速度胜过确保牢固安全措施的消费者环境中,医疗保健行业经常陷入被动。最近关于为训练LLM进行近乎无限的数据抓取的陷阱的新闻,导致版权侵权的诉讼,已经将这些问题推到前台。一些公司还面临着公民个人数据被挖掘用于训练这些语言模型的指控,可能违反了隐私法。
因此,高度受监管行业的人工智能开发人员应该对数据源行使控制,以限制潜在的错误。也就是说,优先从可信赖的、经过行业审查的来源提取数据,而不是随意和未经明确许可地从外部网页抓取数据。对于医疗保健行业来说,这意味着将数据输入限制在常见问题解答页面、CSV文件和医疗数据库等内部来源。
如果这听起来有些限制,可以尝试在大型医疗系统的网站上搜索服务。美国的医疗保健组织在其平台上发布了数百乃至数千个信息页面;其中大多数都被深埋,以至于患者实际上永远无法访问到它们。基于内部数据的生成式人工智能解决方案可以方便无缝地向患者提供这些信息。这对双方来说都是双赢,因为医疗系统最终从这些内容中获得回报,而患者可以即时轻松地找到他们需要的服务。
监管行业中生成式人工智能的下一步发展是什么?
医疗保健行业在许多方面都可以从生成式人工智能中受益。
例如,近期美国医疗保健部门普遍存在着严重的超负荷工作问题,预计到2025年将有近50%的员工离职。生成式人工智能驱动的聊天机器人可以帮助减轻大部分工作负担,并保护过度劳累的患者接待团队。
对于患者而言,生成式人工智能有潜力改进医疗保健提供者的呼叫中心服务。人工智能自动化可以通过各种联系渠道解决各种查询,包括常见问题、IT问题、药品补充和医生转诊。除了等待电话被接听所带来的沮丧感外,美国约有一半的患者只能在第一次通话中成功解决他们的问题,这导致了较高的放弃率和无法获得及时医疗的问题。这种结果低的客户满意度进一步加大了行业的压力。
为了真正从生成式人工智能的实施中获益,医疗保健提供者需要促进对其低级监管模型(LLMs)访问数据的有意义的重组。