使用表达力强的布尔公式解释人工智能

用布尔公式解释AI

人工智能(AI)和机器学习应用的爆炸式增长正在渗透到几乎所有行业和生活领域。

但其增长并非没有讽刺意味。虽然AI的存在是为了简化和/或加速决策或工作流程,但其方法常常非常复杂。事实上,有些“黑匣子”机器学习算法如此复杂多样,以至于即使是创建它们的计算机科学家也无法简单解释。

当某些用例(如金融和医学领域)由业界最佳实践或政府法规定义,并要求对AI解决方案的内部工作原理进行透明的解释时,这可能会带来很大问题。如果这些应用程序无法满足可解释性要求,无论它们的整体效能如何,它们都可能变得无用。

为了解决这个难题,我们在富达应用技术中心(FCAT)的团队与亚马逊量子解决方案实验室合作,提出并实施了一种基于表达式布尔公式的可解释AI(XAI)的可解释机器学习模型。这种方法可以包含应用于一个或多个布尔变量的任何运算符,因此与更为刻板的基于规则和基于树的方法相比,提供了更高的表达能力。

您可以在此处阅读关于这个项目的详细论文。

我们的假设是,由于模型(如决策树)可能变得很深且难以解释,因此需要找到一个低复杂度但高准确性的可表达规则是一个棘手的优化问题,需要解决。此外,通过这种先进的XAI方法简化模型,我们可以获得额外的好处,比如揭示在ML的伦理和负责任使用背景下重要的偏见,同时使其更易于维护和改进模型。

我们提出了一种基于表达式布尔公式的方法,因为它们根据被分类的输入数据定义了具有可调节复杂度(或可解释性)的规则。这样的公式可以包含应用于一个或多个布尔变量的任何运算符(如And或AtLeast),因此与更为刻板的基于规则和基于树的方法相比,提供了更高的表达能力。

在这个问题中,我们有两个竞争目标:最大化算法的性能,同时最小化其复杂度。因此,我们选择在我们的公式中同时包含两者,而不是采取将多个目标合并为一个或约束其中一个目标的典型方法。这样做,并不失一般性,我们主要使用平衡准确度作为我们的总体性能指标。

此外,通过包含AtLeast等运算符,我们受到了解决高度可解释性清单的需求的启发,例如表示特定病症的医学症状清单。可以想象,通过使用这样一个症状清单进行决策,必须有一定数量的症状出现才能进行积极诊断。同样,在金融领域,银行可能根据较长的列表中存在的因素的数量决定是否向客户提供信贷。

我们成功实施了我们的XAI模型,并在一些公共信贷、客户行为和医疗状况的数据集上进行了基准测试。我们发现我们的模型通常与其他知名的替代方案竞争力相当。我们还发现我们的XAI模型可以潜在地由专用硬件或量子设备提供动力,用于解决快速整数线性规划(ILP)或二次无约束二元优化(QUBO)问题。添加QUBO求解器可以减少迭代次数,从而通过快速提供非局部移动实现加速。

正如提到的,使用布尔公式的可解释AI模型在医疗保健领域和富达的金融领域(如信用评分或评估为什么一些客户选择了某个产品而其他人没有)都有许多应用。通过创建这些可解释规则,我们可以获得更高层次的洞察,从而在产品开发或改进以及优化营销活动方面实现未来的改进。

根据我们的研究结果,我们确定了使用具有表达式布尔公式的可解释AI对于那些需要进一步解释的用例既合适又可取。此外,随着量子计算的不断发展,我们预见通过使用它和其他专用硬件加速器可以获得潜在的加速。

未来的工作可能集中在将这些分类器应用于其他数据集,引入新的运算符,或将这些概念应用于其他用例。