缩小人类理解和机器学习之间的差距:可解释人工智能作为解决方案

本文阐述了可解释人工智能(XAI)的重要性,构建可解释人工智能模型的挑战以及一些实用的指导方针,以帮助公司构建XAI模型

介绍

你是否曾经打开你最喜欢的购物应用程序,第一眼看到的是一个你甚至不知道需要的产品推荐,但由于及时推荐而最终购买了?或者你是否打开你喜欢的音乐应用程序,高兴地看到你最喜爱的艺术家的被遗忘的珠宝推荐在顶部作为“你可能会喜欢”的东西?有意或无意地,我们今天遭遇的决策、行为或体验都是由人工智能(AI)生成的。虽然其中一些经验相当无害(完美的音乐推荐有人不喜欢吗?),但有些可能有时会引起一些不安(“这个应用程序怎么知道我一直在考虑进行减肥计划?”)。当涉及到个人隐私和自己和自己所爱的人的事情时,这种不安会升级为担忧和不信任。然而,知道为什么某件事被推荐给你可以帮助缓解这种不安。

这就是可解释人工智能,或XAI,的作用。随着启用AI系统变得越来越普遍,了解这些系统如何做出决策的需求正在增长。在本文中,我们将探讨XAI,讨论可解释AI模型的挑战,改进使这些模型更易于解释的方式,并提供指南,以帮助公司和个人在其产品中实施XAI,以促进用户对AI的信任。

什么是可解释人工智能?

可解释人工智能(XAI)是AI系统能够为其决策或行为提供解释的能力。XAI弥合了AI系统决策和最终用户理解为什么做出该决策之间的重要差距。在AI出现之前,系统通常是基于规则的(例如,如果客户购买裤子,则推荐腰带。或者如果一个人打开他们的“智能电视”,保持在固定的3个选项之间不断旋转#1推荐)。这些经验提供了可预测性的感觉。然而,随着AI变得流行起来,从为什么会显示某些东西或为什么某个产品做出某个决定的角度进行连接并不直接。可解释人工智能可以在这些情况下提供帮助。

可解释人工智能(XAI)使用户能够了解AI系统为什么做出某个决策以及哪些因素影响了决策。例如,当您打开音乐应用程序时,您可能会看到一个名为“因为你喜欢泰勒·斯威夫特”的小部件,然后是流行音乐和与泰勒·斯威夫特的歌曲相似的推荐。或者您可能打开购物应用程序并看到“根据您最近的购物历史记录推荐”的宝贝产品推荐,因为您在最近几天购买了一些宝贝玩具和衣服。

XAI在高风险决策由AI做出时特别重要。例如,算法交易和其他金融建议、医疗保健、自动驾驶车辆等领域。能够为决策提供解释可以帮助用户理解理由,识别因其所训练的数据而引入模型决策中的任何偏见,纠正决策中的错误,并帮助建立人类和AI之间的信任。此外,随着不断出现的监管指导方针和法律要求,可解释人工智能的重要性只会不断增加。

XAI的挑战

如果XAI为用户提供透明度,那么为什么不使所有AI模型都可解释呢?有几个挑战阻止了这一点。

像深度神经网络这样的高级AI模型在输入和输出之间具有多个隐藏层。每个层从前一个层接收输入,对其进行计算,并将其作为输入传递给下一个层。层之间的复杂交互使跟踪决策过程以便进行解释变得困难。这就是为什么这些模型通常被称为黑匣子的原因。

这些模型还处理高维数据,如图像、音频、文本等。能够解释每个特征的影响以确定哪个特征对决策做出了最大贡献是具有挑战性的。简化这些模型以使它们更易于解释会导致它们的性能下降。例如,像决策树这样更简单和“可理解”的模型可能会牺牲预测性能。因此,为了可预测性而在性能和准确性之间进行平衡是不可接受的。

XAI的进展

随着需要继续建立人类对AI的信任,XAI的需求不断增长,最近在这个领域取得了进展。例如,有一些模型,如决策树或线性模型,使解释性相当明显。还有一些符号或基于规则的AI模型,侧重于信息和知识的显式表示。这些模型通常需要人类定义规则并向模型提供领域信息。随着这一领域的积极发展,也有将深度学习与可解释性相结合的混合模型,从而最大程度地减少对性能的牺牲。

实现产品中XAI的指南

让用户理解AI模型为什么做出决策,可以帮助建立对模型的信任和透明度。这可以导致人与机器之间的改进和共生合作,其中AI模型通过透明度帮助人类进行决策,而人类则帮助调整AI模型以消除偏见、不准确性和错误。

以下是企业和个人可以在其产品中实现XAI的几种方法:

  1. 选择可解释的模型 – 如果可行并且可满足要求,应该选择可解释的AI模型而不是不易解释的模型。例如,在医疗保健领域,像决策树这样的简单模型可以帮助医生理解为什么AI模型推荐某种诊断,从而有助于建立医生和AI模型之间的信任。应使用特征工程技术,例如独热编码或特征缩放,以提高可解释性。
  2. 使用事后解释 – 使用特征重要性和注意机制等技术生成事后解释。例如,LIME(局部可解释模型无关解释)是一种解释模型预测的技术。它生成特征重要性分数,以突出每个特征对模型决策的贡献。例如,如果您最终“喜欢”某个播放列表建议,LIME方法将尝试添加和删除某些歌曲,并预测您是否喜欢该播放列表,结论是歌曲在播放列表中的艺术家在您喜欢或不喜欢播放列表方面发挥了重要作用。
  3. 与用户沟通 – 可以使用LIME或SHAP(SHapley Additive exPlanations)等技术,为特定的局部决策或预测提供有用的解释,而无需解释整个模型的所有复杂性。可以利用激活图或注意图等视觉提示来突出与模型生成的输出最相关的输入。最近的技术,例如Chat GPT,可以用于用用户可以理解的简单语言简化复杂的解释。最后,给用户一些控制权,让他们可以与模型交互,可以帮助建立信任。例如,用户可以尝试以不同的方式调整输入,以查看输出的变化。
  4. 持续监控 – 公司应该实施机制,监测模型的性能,并在检测到偏见或漂移时自动检测和报警。应定期更新和微调模型,以及进行审计和评估,以确保模型符合监管法律并符合道德标准。最后,即使是少数情况下,也应该有人提供反馈和纠正。

结论

总之,随着AI的不断发展,建立XAI成为维护用户对AI信任的必要措施。通过采用上述指南,企业和个人可以构建更透明、易于理解和简单的AI。公司越多采用XAI,用户与AI系统之间的沟通就会越好,用户就会更有信心让AI让他们的生活更美好。 Ashlesha Kadam 在亚马逊音乐担任全球产品团队负责人,为 Alexa 和 Amazon Music 应用程序(Web、iOS、Android)上的数百万客户构建音乐体验。她还是妇女在技术领域的热情倡导者,担任 Grace Hopper Celebration(最大的妇女技术大会,有来自115个国家的30K+参与者)人机交互(HCI)跟踪的联合主席。在业余时间,Ashlesha 热爱阅读小说、听商业技术播客(目前最喜欢的是Acquired),在美丽的太平洋西北地区徒步旅行,与她的丈夫、儿子和5岁的金毛一起度过时间。