AI能否克服人类的确认偏见?

AI能否消除人类的偏见确认?

AI如何弥补人类智能的不足并作为对人类认知偏见的制衡

图片来源:来自Pixabay的geralt的照片

从诺贝尔奖得主丹尼尔·卡尼曼的著作《思考,快与慢》中,我们都知道人类大脑在完成本应做到的事情上远非完美。除了情感冲动、顽固的瘾头和道德挣扎之外,卡尼曼在他的书中全面描述了我们的认知偏见的微妙之处。更令人沮丧的是,很多偏见渗透到了我们生活、组织和社会的方方面面。基于此,我们现在面临着两个关键问题。第一,我们如何识别这些偏见在我们决策中的现实?第二,我们如何补偿或防止这些偏见在我们的决策过程中产生?在本文中,我将从数据科学的角度来回答这两个问题,重点关注其中一种最普遍的偏见——证实偏见。借助机器学习和人工智能的进步,我们现在能够发现、克服和预防这些偏见的光明。

什么是证实偏见?

证实偏见是解释和寻找信息以确认或支持现有信念或先前结论的倾向。由于证实偏见,人们倾向于通过单方面地测试想法来确认他们的信念或假设,专注于支持/正面的证据,而忽视可能反驳他们观点的替代/矛盾事实。证实偏见本质上是无意识的,与蓄意欺骗相对。这种偏见在人类生活和社会的许多领域都有广泛的影响,包括科学研究、医学、政治、执法、社会心理学和组织决策。

英国心理学家彼得·卡特卡特·沃森在20世纪60年代首次系统地提出和研究证实偏见。在他的实验中,沃森给参与者提供了一个4张卡片的难题,也称为沃森选择任务,以解决问题。这个难题可以有各种变化,但结果却是高度可重复的。让我们看一个例子:

桌子上放着四张卡片,一面有数字,一面是颜色。规则是如果卡片一面显示偶数,另一面应该是蓝色。现在,你看到四张卡片:3、8、蓝色和红色。你必须翻哪张卡片来测试规则是否成立?

沃森选择任务的示例:必须翻哪张卡片来测试如果卡片一面显示偶数,另一面是蓝色的规则是否成立?图片来源:维基百科

每个人都知道要翻8这张卡片;有些人会选择翻动8和蓝色。正确的答案是要翻动8和红色的卡片,然而大多数人都忽视了翻动红色卡片。如果你翻动3卡片,对于规则来说,反面是蓝色还是非蓝色是无关紧要的。同样,如果你翻动蓝色卡片并发现反面是奇数,也没有影响,因为规则规定了偶数在反面可能会有什么。另一方面,如果你翻动红色卡片并发现反面是偶数,那么你就证明了规则被违反了。

令人惊讶的是,参与者在这个测试的各种形式中反复表现不佳。人们关注规则的支持(反面是蓝色),却忽视了可能证伪指定规则的信息(反面不是蓝色)。

瓦森选择任务的规则都十分简单明了,具有逻辑条件和结果:如果P,那么Q。为了完全证明规则的有效性,需要确认下列两个标准:

  1. 如果P,那么Q
  2. 如果非Q,那么非P

事实上,平均而言,只有10%的瓦森选择任务参与者能完全正确地包含第二个选项,这显示人类大脑自动关注肯定的证据以验证结论,但在检查可能推翻规则的证据时却有困难。

有趣的是,如果我们在谜题中添加社会背景,特别是涉及权限或职责的情况下,大多数人很快就能正确回答。一个常见的例子是:规则是如果你未满21岁,则不能饮酒。假设有四张牌 —— 啤酒、28、可乐、15。你必须翻开哪张牌来测试规则的真实性呢?大多数人会凭直觉迅速给出正确答案:翻开啤酒牌,查看反面的年龄是否超过21岁,翻开15牌,看另一面是否列出一种酒类饮料。

什么导致了确认偏差?

瓦森选择任务的结果意味着什么?科学家仍在研究神经电路和机制,可以解释确认偏差的原因。但我们可以得出两个结论:

  1. 人脑不是一个使用符号和代币解决这类逻辑问题的逻辑运算符。
  2. 偏见可以通过社会背景克服,当人类在社会情境中有规则的先前经验时。

鉴于生物大脑和人工学习(参见文章“从生物学习到人工神经网络:下一步是什么?”)的神经网络学习机制,确认偏差可能是神经网络用于模式识别工作的副产品。对于现有的信念或规则,神经网络通过强化与输入先决条件相关的神经连接来学习。类似的证据会同时激活同一网络,导致得出相同的结论同时强化神经连接。相反,要证明相反的观点,网络需要通过不同的输入数据(非P)单独训练以得出不同的结论(非Q)。换句话说,这个网络很可能包括不同的神经连接来单独学习。由于建立另一个神经输出以理解相反效果需要克服的障碍和努力,人脑对现有的大脑电路有偏好。

当人们遵守社会规则时,他们知道如果不遵守规则将受到惩罚或支付一定的代价。这种相反的情境已经被思考并内置到大脑的电路中,这解释了为什么人在解决社会情境下的谜题时不会遇到困难。换句话说,大脑通过经验数据首先学习了两面情景。

然而,还有另一种方法可以防止确认偏差。这就是利用超出我们本能脑容量的工具。我们通常称之为心智工具。对于瓦森选择任务,这个工具就是简单的逻辑:

  1. 如果P,那么Q
  2. 如果非Q,那么非P

假设我们将每个规则的先决条件(P)和结果(Q)嵌入到上述两个情境中,无论是否与社会背景相关,我们将能100%正确解决谜题。换句话说,一个像使用正反逻辑这样简单的心智工具可以帮助我们清晰地思考,不会因直觉而忽略相反的一面。

然而,在现实世界中,实验室之外,规则更加复杂和隐晦。数据科学和人工智能可以借助相同的原则和策略,帮助人类克服确认偏差。

数据科学和人工智能如何克服确认偏差?

考虑到生物神经网络和人工神经网络之间的学习相似性,我们不希望人工智能重复人类的偏见。尽管人类很难克服确认偏差,但人工智能和机器学习具有以下优势来克服这些偏见:

  1. 模型和算法以预先指定的方式解释训练数据。因此,它们不像人类一样对相反的事实有解释或偏好问题。
  2. 来自数据科学家和工程师的协同工作使其更加客观,与每个个体的人类偏见形成对比。
  3. 对于防止偏见发生,人工智能可以灵活添加其他统计和逻辑工具和过程。

另一方面,由于AI和机器学习依赖于人工筛选的训练数据,需要采取额外的预防措施,以防止模型中引入偏见。因此,我们应该专注于三个方面来克服确认偏见:训练数据、模型测试和监控以及结果的可解释性。

  1. 确保训练数据没有偏见

从数据科学的开始,我们的口号之一就是做出“基于数据的决策”。但正如我们都知道的那样,数据可能是不完整的、糟糕的,甚至是错误的,这是一个严重的危险,可能导致AI做出错误或有偏见的决策。确保训练数据是正确和完整的,具备确认和反驳事实,是消除确认偏见的先决条件。

例如,假设我们构建一个预测订阅增长的模型。除了寻找与订阅者相关的特征外,是否还探索了与非订阅者相关的特征?一些特征可能同时对订阅和非订阅有贡献吗?训练数据是限制我们的预测和决策还是偏离了我们的预测和决策?

确保训练数据平衡地包含各种事实,是确保AI不会从人类那里继承偏见的最关键步骤之一。因为AI模型依赖于人类收集和整理的数据,而人类倾向于具有确认偏见,所以在设计训练模型时,确保数据具有正面和负面情景是必需的,以确保模型没有偏见。然而,这通常涉及不同的数据源,并且需要多种数据收集和整理方法。在某些情况下,如果相反的数据不存在或收集和收集起来成本高昂,那么数据合成可能是模拟对比情景的解决方案。

2. 通过彻底的测试和验证防止偏见

ML和AI已经具备了验证模型的自动化测试过程。然而,验证的目的通常集中在预测的可重复性、模型的泛化性以及从统计分布中去除异常值。防止确认偏见需要额外的步骤来验证训练集和模型的行为和输出。例如,模型能否同时确认和反驳一个假设?由于负样本数量较少而导致的任何故障或异常情况?由于人为干预被认为不重要,是否有任何特征被低估或被忽略了?

确认偏见的识别不是一次性的任务。在不断变化的世界中,新的负面或矛盾的事实可能突然出现。最近的一个例外可能成为未来的新规范。数据整理中的异常处理例程应定期检查,以确定是否删除了实际的相反案例。此外,还应进行定期的审计和测试,以确保在模型发布后不会引入偏见。

3. 展示“思维”过程

从人类经验来看,我们的思维过程和心理模型对正确决策至关重要。我们应该评估和了解AI模型是如何达到决策或结论的。AI的一个明显优势是它可以让许多数据科学家和工程师同时评估其决策过程,而人类只能个体地在一个人的思维中进行评估。

然而,神经网络和深度学习模型因其无法解释而臭名昭著。鉴于这一点,可能需要通过推理过程和混合方法来理解决策或结论是否出现偏见:

  1. 彻底了解训练数据的来源以及它是如何被处理和用于模型的。
  2. 使用特定过程和可用库改进模型的可解释性(例如LIME——局部可解释的模型无关解释,SHAP——Shapley加性解释)
  3. 利用可视化(例如图表)来说明最终结果,以及从源数据到训练和模型执行的端到端过程,如训练数据的质量,支持每个决策的参数实例,输出类别随时间的一致性,过程中的任何故障或异常情况等。这样,数据工程师和数据科学家更容易确定模型可能存在偏见的哪一步,以及还需要什么数据或培训。

结论

纵观历史,人类一直擅长发明工具来克服自身的限制和约束。鉴于人类和AI智能之间的相似性和差异,我们应该关注AI如何补充人类智能的不足,并防止人类的认知偏见。尽管人类很难克服这些偏见,但数据科学和AI可以帮助我们识别和减少它们,同时使过程更加可见。即使我们在本文中集中讨论了确认偏见,类似的原则和方法也可以应用于解决其他认知偏见。