Araucana XAI:基于决策树的医疗保健本地可解释性
Araucana XAI Decision Tree-based Local Explanability in Healthcare
介绍一种基于CART的新的模型无关的事后可解释性方法,提供局部解释,改善医疗领域AI辅助决策的透明度
为什么AI会错了这一个?
在人工智能领域,人们越来越关注复杂AI系统的透明度和可理解性的缺乏。最近的研究致力于通过开发解释性模型来解决这个问题,这些模型可以揭示类似提升、装袋和深度学习技术等不透明系统的内部运作方式。
局部和全局可解释性
解释性模型可以以两种不同的方式揭示AI系统的行为:
- 全局可解释性。全局解释器全面了解AI分类器的整体行为。它们旨在揭示贯穿各种输入和场景的总体模式、趋势、偏见和其他特征。
- 局部可解释性。另一方面,局部解释器专注于为单个实例提供对AI系统决策过程的洞察。通过突出显示显著影响模型预测的特征或输入,局部解释器提供了对特定决策达成的一瞥。然而,需要注意的是,这些解释可能不适用于其他实例,也无法完全理解模型的整体行为。
对于可信且透明的AI系统的需求不断增长,这不仅受到复杂黑盒模型的广泛采用的推动,这些模型以其准确性而闻名,但可解释性有限,还受到遵守旨在保护个人免受数据和数据驱动应用滥用的新规定的推动,如《人工智能法》、《通用数据保护条例》(GDPR)或美国国防部人工智能伦理原则。