使用Colab笔记本与Llama-2 7B模型进行聊天的简单Hugging Face指南

Colab笔记本与Llama-2 7B模型的Hugging Face指南

这比你想象的要容易!

Glib Albovsky在Unsplash上的照片

如果你对开源LLM感兴趣,你会在各个地方看到Llamas。

至少我是这样的:)

所以我最终决定玩一下Meta的Llama 2——目前最流行的开源大型语言模型(截至目前)。

我找到了与Llama 2在Colab中交谈的最简单方法。

多亏了Hugging Face的pipelines,你只需要几行代码。

在这个适合初学者的指南中,我将为您介绍使用Llama 2 7B所需的每个步骤。您将学到:• 如何在Colab上使用GPU• 如何访问Meta的Llama 2• 如何创建Hugging Face pipeline• 如何加载和分词化Hugging face的Llame 2• 最后,您将学会如何与Llamas聊天:)

Meta创建了8个版本的Llama 2模型:

  • 四个不同大小的版本:7B,13B,34B或70B参数。
  • 两个变体:标准版和用于聊天的微调版。

在这个项目中,我们将使用最小的版本,以便它适应单个GPU。而且我们将使用聊天版本。

你的声音很重要

我欢迎您对我即将写的内容提出建议(只要它们与大型语言模型有关)

前往本文的评论部分,告诉我:• 你最激动的是什么?• 你想阅读/学习什么?• 你不理解的是什么?• 你想实现/构建/创建什么?

你将帮助我找出我的读者真正想要的内容!

或者只是简单地打个招呼 🙂 我会知道我们有相似的兴趣。

注意:在本文的末尾,您将找到所有有用的链接,包括一个描述本文中所述项目的即用的Colab笔记本(以及本指南的视频版本)。请查看“参考资料”