提示集成使LLMs更可靠
LLMs的可靠性提升提示集成
通过简单策略充分发挥任何语言模型的优势…
任何与大型语言模型(LLMs)一起工作过的人都知道,提示工程是一个非正式且困难的过程。对提示进行微小的更改可能会导致模型输出的巨大变化,很难(甚至在某些情况下是不可能的)知道更改提示会产生什么影响,并且提示行为高度依赖于所使用的模型类型。当我们考虑使用LLMs创建应用程序时,提示工程的脆弱性是一个残酷的现实。如果我们无法预测我们的模型将如何行事,那么我们如何在此模型周围构建一个可靠的系统呢?尽管LLMs非常强大,但这个问题使它们在许多实际场景中的使用变得复杂。
“提示是一个脆弱的过程,其中对提示进行微小修改可能会导致模型预测出现较大变化,因此人们会花费大量精力设计一个非常完美的任务提示。” — 引自 [2]
鉴于LLMs的脆弱性,寻找使这些模型更准确可靠的技术最近成为一个热门研究课题。在这个概述中,我们将重点关注一种特定技术 —— 提示集合。简单来说,提示集合就是一组用于解决同一个问题的多样提示。为了改善LLM的可靠性,我们可以通过使用多个不同的输入提示查询LLM并在推断最终答案时考虑模型的每个响应来生成问题的答案。正如我们将看到的,这个主题的一些研究非常技术性。然而,这些技术背后的基本思想很简单,可以大大提高LLM的性能,使提示集合成为改善LLM可靠性的首选方法。
背景
在了解有关提示集合和LLM可靠性的最新研究之前,让我们先看一些与LLMs相关的核心概念和背景信息,这将有助于使本概述更加完整和易于理解。