这篇由微软和清华大学进行的人工智能研究介绍了EvoPrompt:一种新颖的人工智能框架,用于自动离散提示优化,连接LLMs和进化算法

这篇介绍了EvoPrompt的微软和清华大学的研究,它是一种新颖的人工智能框架,用于连接LLMs和进化算法的自动离散提示优化

大型语言模型(LLMs)在几乎所有自然语言处理(NLP)任务上都表现出色。然而,传统的微调方法对LLMs来说代价高昂,因此发展了使用可训练的提示嵌入而不修改LLM参数的连续提示微调技术。然而,这些方法仍然需要访问LLM参数,不适用于通过黑盒API(如GPT-3和GPT-4)访问的LLMs。

本文提出了以下贡献:

  1. 引入EVOPROMPT:作者引入了一种新颖的框架EVOPROMPT,用于自动优化离散提示。该框架将大型语言模型(LLMs)与进化算法(EAs)连接起来,并提供了几个优点:
  • 不需要访问LLM参数或梯度。
  • 有效平衡探索和开发,从而改善结果。
  • 生成易于人类理解的提示。
  1. 经验证据:通过对九个不同数据集进行的实验,本文提供了实证证据,展示了EVOPROMPT相对于现有方法的有效性。在情感分类、主题分类、主观性分类、简化和摘要等各种任务中,它表现出高达14%的性能改进。
  1. 发布最佳提示:作者通过EVOPROMPT获得的最佳提示的发布,为常见任务做出了有价值的贡献。研究界和从业者可以在涉及情感分析、主题分类、主观性分类、简化和摘要等任务中使用这些提示。
  1. LLMs的创新应用:本文开创了使用LLMs实现进化算法的概念,前提是提供适当的指令。这种新颖的方法扩大了将LLMs与传统算法结合应用的潜力。

为了实际应用EVOPROMPT,将其与特定的进化算法(EA)配对是至关重要的。有多种类型的EAs可供选择,本文重点介绍了两种被广泛认可的算法:遗传算法(GA)和差分进化(DE)。

上述图像展示了LLMs实现离散提示优化的遗传算法(GA)过程。研究人员认为,LLMs为实现传统算法提供了一种有效且可解释的接口,确保与人类的理解和交流良好对齐。研究结果证实了最近的趋势,即LLMs通过收集错误预测的样本在离散空间中执行“梯度下降”。

还有其他研究机会可以探索大型语言模型(LLMs)在与人类使用自然语言指令交互时执行各种算法的全面能力。潜在的探索思路包括LLMs是否能够在无导数算法(如模拟退火)中生成潜在解决方案。