斯坦福大学研究人员引入了一种统一的人工智能框架,用于大型语言模型(LLMs)中的协作和贡献属性

斯坦福大学研究人员推出创新AI框架,促进大型语言模型(LLM)的协作和贡献属性

大型语言模型(LLMs)是人工智能(AI)领域中指数级发展的最新进展。尽管这些模型在文本生成、问题回答、文本摘要等任务中表现出惊人的性能,但它们所生成的数据的准确性和安全性也面临挑战。这些模型有时会产生虚假或不准确的信息,即产生不可靠的输出。

当模型的输出引起损害时,追溯来源是必要的,以便归咎于道德和法律责任,然而,归因是一项需要创造性技术研究的困难任务。关于将LLM输出与来源相关联的研究主要集中在两个方面:训练数据归因(TDA)和引文生成。

在最近的研究中,斯坦福大学的一个研究团队提出了一个大型语言模型归因的统一框架。该研究涉及引文生成和TDA,结合了协同和贡献性归因。贡献性归因集中在验证内容的来源,而协同归因旨在验证输出是否符合外部知识的准确性。

团队对各种设置中所需的几个属性进行了检查,并为每种归因形式提供了精确定义。该方法鼓励创建和评估可以提供彻底归因的归因系统的创造,并且是迈向充分定义但灵活的语言归因概念的第一步。

该框架已经在实际用例中被使用,以展示其有用性。这些例子说明了一种或两种归因变得必要的情况。在创建法律文件的过程中,内部有效性即训练数据的归因确认了信息的来源和可靠性,而外部有效性即引文的创建确保材料符合法律要求。同样,在医疗问题回答的背景下,验证响应准确性和理解影响模型知识的来源,这两种归因都很重要。

团队总结了他们的主要贡献如下:

  1. 提出了将贡献性和协同性归因相结合的交互模型,突出了共享的元素。
  1. 通过发现对两种类型的归因都相关的属性,改进了组合框架。
  1. 对当前贡献性和协同性归因实现的全面分析,提供了对实际应用的深入了解。
  1. 描述了对归因至关重要的情景,如法律文件的创建,以及对其效力所需的特质。

综上所述,该框架是一个很好的引入,可以有助于归因系统评估的标准化,促进在各个领域中对它们的效力进行更系统和可比较的评估。这可以通过提供一种一致和连贯的归因方法来提高和加快大型语言模型的使用,解决输出可靠性的关键问题。