像这样思考并回答我:这种人工智能方法使用主动提示来引导大型语言模型
这种AI方法使用提示引导语言模型
最近几个月我们都对大型语言模型(LLMs)变得非常熟悉,ChatGPT的引入使其迅速成为我们日常生活中的必需工具。LLMs在信息检索、聊天助手、写作助手等方面非常有用。
通常,LLMs具有强大的推理能力,意味着它们可以使用逻辑推理或演绎来根据给定的信息得出解决方案。它们可以进行推断、得出结论,并逻辑连接信息的各个部分。例如,它们可以回答像“假设你有一系列数字:2、4、6、8、10,… 接下来的数字是多少?”这样的问题。
推理任务被认为比简单的语言理解任务更具挑战性,因为它们需要更高水平的理解和推理能力。LLMs在这方面表现得很好,但当我们要求它们在复杂的推理任务中表现良好时情况就会发生变化。
引导LLMs的一种简单方法是上下文学习。在发送主要请求之前,您可以给LLM提供一组示例问题-答案,这样它就可以学习您真正想要问的内容。例如,您可以将提示从“假设你有一系列数字:2、4、6、8、10,… 接下来的数字是多少?”更改为“问:假设你有一系列数字:2、4、6、8、10,… 接下来的数字是多少?答:是12,因为每个数字增加两个。问:假设你有一系列数字:3、7、11,… 接下来的数字是多少?”这样,LLM就可以看到思考的过程并相应地进行调整。
已经证明,CoT提示赋予LLMs良好的推理能力。然而,选择信息丰富的问题并用CoT和答案进行注释很大程度上取决于人类工程。正如您可以想象的那样,您提供的问题-答案链条非常重要。
由于推理任务在难度、范围和领域上有很大的多样性,不确定哪种类型的问题应该优先进行注释。此外,尚不清楚是否某个特定组的示例是获得所需信息最有效的方法。另一方面,如果我们能确定重要的问题,则对其进行注释将变得非常直接。问题是如何选择这些问题。
这就是“主动提示”发挥作用的地方。它通过利用不确定性提出了解决这个问题的方法,并引入了少量人类工作来注释一小组问题。
所提出的方法首先引入了几个度量标准来描述LLM预测之间的不确定性。然后使用这些不确定性度量来对最不确定的问题进行排名,并选择这些问题进行注释。然后,使用少样本CoT或零样本CoT方法生成示例答案。
使用四种不同的方法来估计不确定性:不一致性、熵、方差和自信度。每种策略都提供了对不确定性性质的独特视角,但主要关注的是利用不一致性和熵方法。不一致性计算预测中的唯一答案。另一方面,更高的熵表示更大的不确定性,而较低的熵表示较小的不确定性。因此,当涉及复杂推理时,具有相对较高熵的问题更有可能被视为可能的选项。
所提出的解决方案在几个推理任务上进行了评估,结果显示它在准确性和效率方面优于基准方法。该论文还对不确定性度量进行了分析,并展示了如何利用它们来提高模型的性能。
总之,主动提示是解决在CoT提示中确定哪些问题最重要和有助于注释的问题的方法。它利用不确定性,并旨在最大程度减少人类工作量来注释一组问题。结果表明,所提出的解决方案优于基准方法,并可用于提高LLMs在推理任务上的性能。