“认识Lamini AI:一款革命性的LLM引擎,让开发者轻松训练ChatGPT级别的语言模型”

Introducing Lamini AI a revolutionary LLM engine that enables developers to easily train language models at the level of ChatGPT.

从零开始教授LLM是具有挑战性的,因为需要大量时间来理解为什么微调模型失败;微调小数据集的迭代周期通常以数月计算。相比之下,使用提示进行调优的迭代在几秒钟内完成,但几个小时后性能就会平稳下来。仓库中的几十GB数据无法压缩到提示的空间中。

使用Lamini库中的几行代码,任何开发人员都可以训练出与ChatGPT在大规模数据集上相媲美的高性能LLM,而不仅仅是熟练掌握机器学习的人。由Lamini.ai发布的该库的优化超越了程序员当前可以访问的范围,包括RLHF等复杂技术和幻觉抑制等简单技术。从OpenAI的模型到HuggingFace上的开源模型,Lamini使使用单行代码执行各种基本模型比较变得简单。

开发LLM的步骤:

  • Lamini是一个允许进行微调提示和文本输出的库。
  • 使用功能强大的Lamini库轻松进行微调和RLHF
  • 这是第一个批准用于商业用途的托管数据生成器,专门用于创建训练指令遵循LLM所需的数据。
  • 使用上述软件以最小的编程工作量创建免费且开源的LLM来遵循指令。

基本模型对英语的理解对于消费者使用案例来说是足够的。然而,当教授它们您行业的行话和标准时,仅调整提示并不总是足够的,用户将需要开发自己的LLM。

通过以下步骤,LLM可以处理类似于ChatGPT的用户案例:

  1. 使用ChatGPT的提示调整或其他模型。团队优化了最佳提示以便易于使用。使用Lamini库的API之间快速进行提示调整;使用单行代码在OpenAI和开源模型之间切换。
  2. 创建大量的输入输出数据。这些数据将演示它应如何对接收到的数据做出反应,无论是英语还是JSON。团队发布了一个包含少至100个数据点的几行代码的存储库,该存储库使用Lamini库生成50k的数据点。该存储库包含一个公开可用的50k数据集。
  3. 使用您的大量数据调整起始模型。除了数据生成器之外,他们还分享了一个在合成数据上训练的Lamini微调LLM。
  4. 通过RLHF对微调模型进行优化。Lamini消除了需要大规模机器学习(ML)和人工标注(HL)人员来操作RLHF的要求。
  5. 将其放入云端。在应用程序中调用API的端点即可。

使用37k个生成的指令训练Pythia基本模型后(过滤了70k个),他们发布了一个开源的指令遵循LLM。Lamini提供了RLHF和微调的所有好处,而无需繁琐的操作。很快,它将负责整个过程。

该团队非常兴奋地简化工程团队的训练过程,并显著提高LLM的性能。他们希望如果迭代周期可以更快更高效,更多的人将能够构建这些模型,而不仅仅是调整提示。