一项新的AI研究介绍了REV:AI研究中的一项重大突破——一种新的信息论度量方法,用于评估自由文本理由中的新颖且与标签相关的信息
一项新的AI研究介绍了REV:一种新的信息论度量方法,用于评估自由文本理由中的相关信息
模型解释在自然语言处理(NLP)中被证明对于信任和可解释性至关重要。自由文本解释提供了对模型预测的自然语言解释,因其适应性能够揭示模型选择所涉及的思考过程,使其更接近人类解释。然而,现有的自由文本解释评估指标大多仍以准确性为基础,并且狭窄地关注解释如何帮助(代理)模型预测其解释的标签。这些评估指标无法提供任何关于解释给出的新数据对原始输入的解释选取的原因的洞见-解释所期望实现的精确功能。
例如,尽管在图1中,两个解释r*1和r*1提供了不同数量的新鲜和相关信息,但它们在现有度量下被认为同等重要。为了解决这个问题,在本文中引入了一个自动评估自由文本解释的两个维度:(1)解释是否支持(即预测)预期的标签,以及(2)解释在已经存在于输入中的标签解释之外添加了多少额外信息。
例如,图1中的解释r^1,b违反了(1),因为它没有预测到“享受大自然”这个标签。尽管解释r^1,a支持该标签,但它没有提供任何新的信息来支持已在输入x中陈述的内容,因此它违反了(2)。解释r*1满足了两个要求:它提供了超过输入的额外和相关信息来支持标签。解释r^1,a和r^1,b将在评估中受到惩罚,而r1,a和r1,b将受到奖励。弗吉尼亚大学、AI艾伦研究所、南加州大学和华盛顿大学的研究人员在这项研究中提供了REV2,这是一个信息理论框架,用于评估他们修改后的自由文本解释的两个前述维度。
- CMU、AI2和华盛顿大学的研究小组推出了NLPositionality:一种用于表征设计偏见和量化NLP数据集和模型定位性的AI框架
- 如何从市场营销转行数据科学?
- Google AI研究人员推出Pic2Word:零样本组合图像检索(ZS-CIR)的新方法
REV基于条件V-信息,该信息度量了表示与基线表示相比具有的额外信息的程度,并且可以被模型族V使用。他们将什么都没有做的空洞解释视为基线表示,它只是将输入与预先确定的标签配对,而没有添加任何能够说明标签背后决策过程的新信息。在评估解释时,REV采用了条件V-信息。为此,他们比较了两个表示:一个来自训练模型,该模型根据输入和解释产生标签,另一个来自另一个仅考虑输入的评估模型(在虚拟解释的幌子下)。
其他评估指标无法评估解释中的新鲜和与标签相关的信息,因为它们没有考虑空解释。针对两个推理任务,常识问答和自然语言推理,在四个基准测试中,他们提供了使用REV评估解释的研究。众多定量评估表明,REV可以为自由文本解释提供沿着新的轴线的评分,同时更符合人类判断。他们还提供了比较,以展示REV对不同程度的输入干扰的敏感性。此外,使用REV进行评估可以揭示为什么由思维链推动发现的解释不总能提升预测性能。