我们能阻止LLMs产生幻觉吗?

能阻止LLMs产生幻觉吗?

观点

普遍采用LLM技术的最大障碍之一可能是无法从根本上解决的问题。

Photo by Google DeepMind on Unsplash

尽管大型语言模型(LLMs)吸引了几乎所有人的注意力,但由于一些令人讨厌的特点,这种技术的广泛应用还稍微受限 – 这些模型往往会产生幻觉。简单来说,它们有时只是编造事情,而且最糟糕的是,这往往看起来非常令人信服。

无论幻觉是频繁还是偶尔出现,都会带来两个主要问题。它们不能直接应用于许多敏感或脆弱的领域,因为单个错误可能代价高昂。此外,用户需要验证LLM产生的一切,这会引发普遍的不信任,至少在某种程度上违背了该技术的目的。

学术界似乎也认为幻觉是一个重大问题,2023年有数十篇研究论文讨论并试图解决这个问题。然而,我倾向于同意Meta首席AI科学家Yann LeCun的观点,即幻觉根本无法解决。我们需要完全改进技术以消除这个问题。

产生虚假陈述的幻觉

我认为,任何LLM都有两个重要方面,这使得幻觉无法解决。首先是显而易见的技术基础,LLM与任何其他机器学习模型一样,具有随机性。简单来说,它们进行预测。

尽管它们肯定比“浮夸的自动完成”更先进,但底层技术仍然使用关于标记的统计预测。这既是LLM的优点,也是缺点。

在优点方面,我们已经看到它们在预测输入后应该出现什么方面有多么出色(除非有意破坏输出)。用户可能犯下多种错误,例如留下拼写错误,误解单词的含义等,LLM仍然有可能正确输出。

在早期创建文本游戏时,用户被要求输入没有任何错误或解释余地的命令。如果用户输入“move morth”,命令“move north”将出错。然而,LLM可能能够推断出两种情况的含义。从这个意义上说,这项技术真的很迷人。

然而,这也展示了一个弱点。任何输入都有广泛的标记选择决策树。简单来说,模型可以创建各种输出方式。在这个大范围中,只有相对较小的一部分是“正确”的决策。

虽然有许多优化选项可用,但问题本身是无法解决的。例如,如果我们增加提供一个特定答案的可能性,LLM就变成了一个查找表,所以我们希望保持平衡。底层技术仅基于随机预测,因此必须为输出标记提供更广泛的空间。

但是,LLM在当前状态下还存在另一个问题,这个问题有点更为含混和抽象,因为它涉及到认识论,即研究知识本质的哲学领域。表面上看,问题很简单 – 我们如何知道哪些陈述是真实的,以及如何获得这样的知识?毕竟,幻觉只是事后一套虚假的陈述,因此如果我们能够创建一种方法让模型验证自己是否做出了虚假的陈述并将其删除,那将解决问题。

将幻觉与真实陈述分开

在哲学的引导下,我们可以将可能的陈述分为两种类型 – 分析和综合。前者是通过定义本身就是真实的陈述(最常见的例子之一是“单身汉是未婚男子”)。简单来说,我们可以通过分析语言本身找到真实的陈述,不需要外部经验。

综合陈述是任何通过某种形式的经验是真实的陈述,例如“桌子前面有一个苹果”。没有办法在不参考直接经验的情况下知道这样的陈述是否真实。纯语言分析对确定它是真实还是虚假没有任何好处。

我应该指出,这些陈述之间的区别几百年来一直备受争议,但对于LLM来说,这个讨论基本上是无关紧要的。正如它们的名称所暗示的,它们是一种高度先进的语言分析和预测机器。

在区分这两种类型之后,我们可以看到LLM对于分析性陈述几乎没有问题(或者至少与人类一样)。然而,它们无法接触经验或整个世界。它们无法知道某些陈述是由事件本身决定的。

主要问题是分析性陈述的数量明显小于所有综合性陈述的集合。由于LLM无法验证这些陈述是否为真,我们作为人类必须向它们提供这些信息。

因此,LLM面临一个挑战。所有可能输出的集合将始终包含一些综合性陈述,但对于模型来说,所有这些陈述都是无关真值的。简单来说,“凯撒大帝的刺客是布鲁图斯”(有很多,但对于这种情况来说无关紧要)和“凯撒大帝的刺客是亚伯拉罕·林肯”对于模型来说是等价的。

反驳的一个观点可能是我们也没有关于这些事件的直接经验。我们只是在书中读到了它们。但是对于陈述的真实性的发现是基于对幸存记载的重建和广泛的其他考古证据。

一个更简单的例子是“今天下雨了”。对于LLM来说,这样的陈述根本无法确定是否为真,因为它需要在查询时访问真实世界的经验。

在某种意义上,认识论问题是自我解决的。我们的文学语料库会使“凯撒大帝的刺客是布鲁图斯”这样的输出由于更频繁出现而变得更有可能。然而,问题在于这样一个自我解决的解决方案依赖于对绝对所有可用文本信息进行LLM的训练,这显然是不可能的。此外,这将使其他更不真实的输出并未完全从所有可能的输出集合中消失。

因此,数据质量成为一个重要因素,但只能由人类观察者来判断质量。即使在模型被训练了大量数据的情况下,仍然存在一定的选择过程,这意味着综合性陈述的错误率无法消除。

结论

我认为阻止模型产生幻觉的问题是不可解决的。首先,技术本身是基于随机过程的,这不可避免地会导致大量输出出现错误的预测。

除了技术上的障碍之外,还有一个问题,即LLM是否能够对陈述进行真值判断,我认为这是不可能的,因为它们无法接触真实世界。根据目前许多LLM的各种搜索引擎功能,这个问题略有减轻,它们可以验证某些陈述。

然而,也许可能收集一个用于测试陈述的数据库,但这需要超越技术本身,这将使我们回到最初的问题。