中国的这项AI研究探索了人工智能的错觉心智:深入剖析大型语言模型中的幻觉

揭秘中国这项人工智能研究:探索大型语言模型中的错觉心智幻象

近年来,大型语言模型在自然语言处理领域引起了一场范式变革,带来了以往未曾有的语言创建、理解和推理的进步。然而,与LLM的快速发展相伴而来的一个令人担忧的趋势就是它们导致幻觉,从而产生似乎可信但缺乏事实支持的信息。现有对幻觉的定义将其描述为创建的信息,它在逻辑上或对给定的源内容不忠实,这与早期的研究一致。根据与原始材料的差异程度,这些幻觉进一步分为内在幻觉和外在幻觉两类。

虽然有特定任务的变体,但这个类别是几个自然语言生成工作共有的。与特定任务的模型相比,LLM由于其出色的适应性和在多个自然语言生成任务中的优越性能,尤其是在开放领域应用中,更容易引发幻觉。在LLM中,幻觉是一个更广泛而全面的概念,主要集中在事实错误方面。随着LLM时代的进展,必须修改现有的幻觉分类系统以提高其相关性和灵活性。来自中国哈尔滨工业大学和华为的研究人员在这项研究中对幻觉分类进行了重新划分,为LLM应用提供了更专业的基础。

他们将幻觉分为两个主要类别:忠实度幻觉和真实性幻觉。事实幻觉侧重于已创建和经过验证的现实世界事实的内容之间的差异,这些差异通常表现为捏造或事实不一致。例如,在对第一个登上月球的人的问题作出回答时,模型会自信地回答是查尔斯·林德伯格于1951年登月。然而,随着1969年阿波罗11号任务的进行,尼尔·阿姆斯特朗成为第一个登上月球的人。另一方面,“忠实度幻觉”一词描述的是生成内容与用户指令或输入背景的不一致和偏离。

如图1所示,当要求描述一条新闻故事时,模型为以色列和哈马斯之间的对抗提供了错误的事件日期,将2023年10月错认为2006年10月。他们进一步将真实性分为两个子类别:事实不一致和事实捏造,这取决于可验证来源的存在。为了提高忠实度,他们非常强调从用户的角度解决不一致性问题。他们将其分类为逻辑、上下文和指令不一致性。这更符合LLM当前的使用方式。尽管已经在NLG任务的背景下进行了研究,但幻觉的根本原因对于最先进的LLM来说具有特殊的困难,并值得进一步研究。

图1:LLM幻觉的自然插图

他们对LLM中幻觉的具体原因进行了彻底的调查,包括从训练和数据到推理阶段的一系列相关因素。在这个框架内,他们确定了可能与数据相关的原因,包括错误的信息来源和未充分利用的资源,可能导致预训练和对齐幻觉,以及由随机解码方法和推理过程中不准确的表示引起的幻觉。

此外,他们提供了一系列有效的检测技术,旨在识别LLM中的幻觉,并全面总结了LLM幻觉的基准。这些是评估LLM产生的幻觉程度和检测技术有效性的合适测试平台。此外,他们提供了旨在减少已识别的幻觉来源的全面策略。他们希望这项研究能进一步推动LLM领域的发展,并为LLM中的幻觉所带来的潜在益处和困难提供富有见地的信息。这项研究改进了他们对现有LLM缺陷的理解,同时为进一步研究和创建更可靠、强大的LLM提供了重要方向。