“认识EasyEdit:一款易于使用的用于LLMs的知识编辑AI框架”
Introducing EasyEdit an easy-to-use knowledge editing AI framework for LLMs.
我们不断需要跟上这个不断变化的世界,机器学习模型也需要如此,以产生精确的输出。大型语言模型通常会遇到谬误问题,即它们对未见事件不知情,或者由于过时/嘈杂的数据而生成具有错误事实的文本。例如- ChatGPT和LlaMA等LLM仅具有截至其最后训练点的信息,基本上我们需要更新LLM内的参数化知识以修改其特定行为。已经引入了许多知识编辑或模型编辑方法,可以在最小化对不相关输入的影响的同时对机器学习模型进行编辑。
为了解决基于知识截断/偏倚输出的持久性挑战,研究人员应用了两种主要方法:
- 微调,传统微调和增量微调利用领域特定数据集,但它们消耗大量资源并存在灾难性遗忘的潜在风险。
- 提示增强,当提供充足的演示或收集的上下文时,大型语言模型(LLMs)展现出改善其推理能力并通过整合外部知识增强其生成任务的能力。缺点是该技术可能对提示模板和上下文示例的选择等因素敏感。
由于不同的知识编辑方法之间存在显著差异以及任务设置的变化,目前还没有标准的实现框架。为了解决这些问题并提供一个统一的框架,研究人员引入了EASYEDIT,一个易于使用的LLM知识编辑框架。它支持最先进的知识编辑方法,并可轻松应用于诸如T5、GPT-J和LlaMA等众多知名LLM。
EASYEDIT平台引入了一个用户友好的“编辑”界面,可以轻松修改模型。该界面包括Hparams、Method和Evaluate等关键元素,无缝集成了各种知识编辑策略。实施这些策略的核心机制是通过不同方法访问的APPLY_TO_MODEL函数。上图演示了将MEND应用于LLaMA的实例,改变了美国总统的输出为乔·拜登。
EASYEDIT采用模块化方法组织编辑方法并评估其有效性,同时考虑它们的相互作用和组合。该平台适用于各种编辑场景,包括单实例、批处理实例和顺序编辑。此外,它还进行关键指标(如可靠性、概括性、局部性和可移植性)的评估,帮助用户找到最适合其特定需求的方法。
EASYEDIT在LlaMA-2上的知识编辑结果表明,与传统的微调相比,知识编辑在可靠性和概括性方面更胜一筹。总之,EasyEdit框架是大型语言模型(LLMs)领域的一个重要进展,满足了对易于访问和直观的知识编辑的重要需求。