LLMWare发布了专门用于企业工作流程涉及复杂业务文件的生产级调优模型 RAG特定7B参数LLM

LLMWare发布RAG特定7B参数LLM:生产级调优模型,提升企业工作流程中涉及复杂业务文件的效率

上个月,Ai Bloks宣布开源推出其开发框架llmware,用于构建企业级LLM工作流应用程序。今天,Ai Bloks迈出了发布DRAGON(Delivering RAG on…)系列7B参数LLM的重要步骤,这些LLM专为复杂商业和法律文件的基于事实的问题回答而进行了优化。

随着越来越多的企业希望使用自己的私有信息部署可扩展的RAG系统,对以下几个需求越来越认可:

  1. 统一框架,将LLM模型与一组周围的工作流功能集成在一起(例如,文档解析、嵌入、提示管理、源验证、审计跟踪);
  2. 经过优化的高质量、较小的专用LLM,专门用于基于事实的问题回答和企业工作流程,并
  1. 可定制的开源、具有成本效益的私有部署。

为满足这些需求,LLMWare在其Hugging Face存储库中推出了七个开源的DRAGON模型,这些模型都经过了精细调整,用于RAG,并建立在强大的生产级基础模型之上,专为企业级RAG工作流程提供支持。

所有的DRAGON模型都使用了llmware rag-instruct-benchmark进行评估,并将完整的测试结果和方法提供在存储库中。每个DRAGON模型在多样化的100个核心测试问题中的准确性均在中高90%以上,具有强大的基础,避免产生幻觉,并能够确定无法从一段文字回答问题(例如“未找到”分类)的情况。

DRAGON模型系列加入了另外两个LLMWare RAG模型系列:BLING和Industry-BERT。BLING模型是无需GPU的专门用于RAG的较小的LLM模型(1B – 3B),可以在开发人员的笔记本电脑上运行。由于训练方法非常相似,开发人员可以从使用本地的BLING模型(在笔记本电脑上运行)开始,然后无缝地将DRAGON模型用于生产中,以获得更高的性能。DRAGON模型均设计为私有部署在单个企业级GPU服务器上,以便企业可以在自己的安全区域安全而私密地部署端到端的RAG系统。

这套开源的专门用于RAG的模型,结合核心LLMWare开发框架以及与Milvus和Mongo DB开源私有云实例的即插即用集成,为RAG提供了端到端的解决方案。开发人员只需几行代码,就可以自动处理和解析成千上万个文档,附加嵌入向量,执行最先进的基于LLM的生成推理,并进行证据和源验证,全部在私有云中运行,有时甚至可以从单个开发人员的笔记本电脑中运行。

根据Ai Bloks首席执行官达伦·奥伯斯特(Darren Oberst)的说法,”我们相信LLMs可以在企业中实现新的自动化工作流程,而我们对LLMWare的愿景是将专业模型、数据流程以及所有的支持组件在一个统一的开源框架中汇聚在一起,以便企业可以快速定制和部署基于LLM的自动化,并实现规模化。”

有关更多信息,请访问llmware的github存储库,网址为www.github.com/llmware-ai/llmware.git

要直接访问模型,请查看llmware Huggingface组织页面,网址为www.huggingface.co/llmware