转换专业AI训练-遇见LMFlow:一个有前景的工具包,可高效微调和个性化大型基础模型以提供卓越性能

建立在大型基础模型之上的大型语言模型(LLMs)已经展示了执行以前不可能的各种任务的一般能力。然而,需要更多对这些LLMs进行微调以提高在专业领域或工作上的性能。对这些大型模型进行微调的常见过程包括:

  • 在利基领域进行持续预训练,使得基础模型能够在这些领域中获得专业知识。
  • 调整指令以训练一个大型通用基础模型,使其能够理解和执行某些类型的自然语言指令。
  • 使用RLHF(强化学习与人类反馈)训练一个具有必要对话能力的大型基础模型。

尽管已经有几个大型模型经过预训练并提供给公众使用(如GPT-J、Bloom、LLaMA等),但目前还没有一个公开可用的工具箱能够在所有这些模型上高效地进行微调操作。

为了帮助开发人员和研究人员在资源受限的情况下高效地进行大型模型的微调和推理,香港大学和普林斯顿大学的学者团队创建了一个易于使用且轻量级的工具集。

只需一块Nvidia 3090 GPU和五个小时,就可以基于一个70亿参数的LLaMA模型进行自定义模型的训练。该团队在单台机器上使用这个框架对LLaMA的70亿、130亿、330亿和650亿参数版本进行了微调,并提供了这些模型的权重供学术研究使用。

优化在线可用的大型语言模型的输出有四个步骤:

  1. 第一步是“领域适应”,即在特定领域上训练模型以更好地处理该领域。
  2. 第二步是任务适应,即训练模型以完成特定目标,如摘要、问答或翻译。
  3. 基于指示性问答对调整模型参数的第三阶段是指令微调。
  4. 最后一步是使用人类反馈的强化学习,即根据人们的意见对模型进行改进。

LMFlow为这四个步骤提供了完整的微调过程,使得尽管计算资源受限,仍然可以进行大型语言模型的个性化训练。

LMFlow提供了全面的大型模型微调方法,包括持续预训练、指令调整和RLHF等功能,同时还提供了易于使用和灵活的API。现在,每个人都可以通过LMFlow进行个性化模型训练。对于问题回答、陪伴、写作、翻译和各种学科的专家咨询等活动,每个人都可以根据自己的可用资源选择适合自己的模型。如果用户拥有足够大的模型和数据集,并且训练时间更长,将会获得更好的结果。该团队最近训练了一个330亿参数的模型,其表现优于ChatGPT。