麻省理工学院和微软的研究人员引入了DoLa:一种新颖的人工智能解码策略,旨在减少LLMs中的幻觉
MIT and Microsoft researchers introduced DoLa, a novel AI decoding strategy to reduce hallucinations in LLMs.
许多自然语言处理(NLP)应用程序从使用大型语言模型(LLMs)中获益良多。虽然由于规模化而改善了LLMs的性能并增加了额外的功能,但它们仍然存在“幻觉”或在预训练期间检测到的真实世界事实不一致的问题。这对于高风险应用(例如在临床和法律环境中发现的应用)采用来说是一个重要的障碍,因为生成可信文本是至关重要的。
最大似然语言建模目标,旨在最小化数据和模型分布之间的正向KL散度,可能是LLMs幻觉的原因。然而,这还远非确定。如果追求这个目标,LM可能会对不完全符合训练数据中编码的知识的短语分配非零概率。
从模型的可解释性角度来看,研究表明,Transformer LMs的早期层编码了“低层”信息(例如词性标签)。相反,后期层次编码更多“语义”信息。
- “遇见BLIVA:一种多模态大型语言模型,用于更好地处理文本丰富的视觉问题”
- “人工智能如何革新有声图书制作?利用神经文本转语音技术从电子书籍中创作成千上万本高质量的有声图书”
- 麻省理工学院的研究人员引入了一种新颖的轻量级多尺度关注机制,用于设备端的语义分割
麻省理工学院和微软的一组研究人员建议使用这种模块化的知识编码来通过对比解码策略增加LM的事实知识,其中下一个单词的输出的可能性是使用较高层的对数差异计算的。通过这种方式,可以使LLMs更加扎根于现实,并通过优先考虑来自更深层次的信息并贬低来自中间或较浅层次的信息来减少幻觉。
他们最近的工作介绍了一种名为Decoding by Contrasting Layers(DoLa)的新型解码方法。该方法的提出是基于提高LLM中编码的事实知识的曝光度,而无需检索外部知识或进行进一步的微调。
实验结果表明,DoLa在TruthfulQA和FACTOR上都改善了LLaMA系列模型的完整性。对于StrategyQA和GSM8K cc,对推理链进行的额外实验表明它具有改善事实推理能力的潜力。最后,对开放式文本生成(使用GPT-4评估)的实验结果显示,DoLa可以生成更具信息量和事实性更高的响应,从而获得比原始解码方法更高的评级。DoLa是一种解码方法,可以用于增加LLMs的诚实度,并且研究结果表明它仅会在解码过程中添加很少的时间。
研究人员没有调查模型在其他领域(如遵循指示或接收人类反馈)的性能。此外,团队并未利用人类标签或事实信息来源进行微调,而是依赖预先存在的架构和参数,限制了可能的增强范围。与某些检索增强型LM不同,此技术完全依赖于模型的预先存在的知识,而不是通过外部检索模块添加新信息。团队希望未来的工作将上述组件与他们的解码技术结合起来,以帮助克服这些限制。