仿制模特与开源LLM革命

时尚革命:模特仿妆与开源LLM

专有的大型语言模型(LLM)如ChatGPT和GPT-4是否真的容易复制?

(照片来自Unsplash的Tanbir Mahmud)

LLMa套件的提出[2]引发了关于开源LLM的大量出版物。在许多情况下,这些工作的目标是便宜地生产与ChatGPT和GPT-4等专有模型质量相当的较小的开源LLM(用于研究目的)。这些模型采用模仿策略,通过对更强大的LLM使用合成对话数据对基础LLM进行微调。尽管训练成本低廉,但这些模型似乎表现与ChatGPT等专有LLM相当。因此,深度学习研究领域很快接受了开源LLM将主导未来的观点-复制专有模型的开源变体既简单又具有成本效益!

“最强大的LLM是封闭源代码还是自由分发供任何人使用、修改和扩展?”—摘自[1]

不幸的是,对这些模型进行的初步评估依赖于其他LLM(例如GPT-4)或人工群众工作者提供的评分,有些草率。模仿模型的性能是否真正与ChatGPT等模型相符?为了更严谨地回答这个问题,我们将研究最近的研究,分析模仿模型是否真正消除了专有LLM的“壕沟”。有趣的是,我们将看到这些强大LLM的廉价复制在人类评估中表现良好,因为它们能够学习强大LLM的风格。然而,在更广泛和有针对性的评估中,它们缺乏事实性,并且表现不佳。事实上,模仿模型的性能远不及像ChatGPT这样的专有模型。

(摘自[1])

模型模仿

“模型模仿的前提是一旦通过API提供专有LM,就可以收集API输出的数据集,并将其用于微调开源LM。”—摘自[1]