使用Colab笔记本与Llama-2 7B模型进行聊天的简单Hugging Face指南
Colab笔记本与Llama-2 7B模型的Hugging Face指南
这比你想象的要容易!
如果你对开源LLM感兴趣,你会在各个地方看到Llamas。
至少我是这样的:)
所以我最终决定玩一下Meta的Llama 2——目前最流行的开源大型语言模型(截至目前)。
我找到了与Llama 2在Colab中交谈的最简单方法。
多亏了Hugging Face的pipelines,你只需要几行代码。
在这个适合初学者的指南中,我将为您介绍使用Llama 2 7B所需的每个步骤。您将学到:• 如何在Colab上使用GPU• 如何访问Meta的Llama 2• 如何创建Hugging Face pipeline• 如何加载和分词化Hugging face的Llame 2• 最后,您将学会如何与Llamas聊天:)
Meta创建了8个版本的Llama 2模型:
- 四个不同大小的版本:7B,13B,34B或70B参数。
- 两个变体:标准版和用于聊天的微调版。
在这个项目中,我们将使用最小的版本,以便它适应单个GPU。而且我们将使用聊天版本。
你的声音很重要
我欢迎您对我即将写的内容提出建议(只要它们与大型语言模型有关)
前往本文的评论部分,告诉我:• 你最激动的是什么?• 你想阅读/学习什么?• 你不理解的是什么?• 你想实现/构建/创建什么?
你将帮助我找出我的读者真正想要的内容!
或者只是简单地打个招呼 🙂 我会知道我们有相似的兴趣。
注意:在本文的末尾,您将找到所有有用的链接,包括一个描述本文中所述项目的即用的Colab笔记本(以及本指南的视频版本)。请查看“参考资料”