Hugging Face 和 Graphcore 合作,为 IPU 优化的 Transformer 提供支持
Hugging Face与Graphcore合作,支持IPU优化的Transformer
在2021年AI硬件峰会上,Hugging Face宣布了他们的新硬件合作伙伴计划的启动,包括针对设备优化的模型和软件集成。在这里,Graphcore – 智能处理单元(IPU)的创造者和该计划的创始成员 – 解释了他们与Hugging Face的合作将如何帮助开发者轻松加速他们对最先进的Transformer模型的使用。
Graphcore和Hugging Face是两家具有共同目标的公司 – 使创新者更容易利用机器智能的力量。
Hugging Face的硬件合作伙伴计划将允许使用Graphcore系统的开发者部署经过优化的最先进的Transformer模型,以最小的编码复杂性在生产规模上运行,适用于我们的智能处理单元(IPU)。
什么是智能处理单元?
IPU是驱动Graphcore IPU-POD数据中心计算系统的处理器。这种新型处理器专为人工智能和机器学习的特定计算需求而设计。我们的硅芯片内置了细粒度并行性、低精度算术和处理稀疏性的能力,而不是采用像GPU那样的SIMD / SIMT架构,Graphcore的IPU采用了大规模并行的MIMD架构,并将超高带宽内存放置在处理器核心旁边,就在硅芯片上。
这种设计提供了高性能和新的效率水平,无论是运行当今最流行的模型,如BERT和EfficientNet,还是探索下一代人工智能应用。
软件在释放IPU的能力方面起着至关重要的作用。我们的Poplar SDK与处理器自Graphcore成立以来就共同设计。今天它完全集成了标准的机器学习框架,包括PyTorch和TensorFlow,以及Docker和Kubernetes等编排和部署工具。
使Poplar与这些广泛使用的第三方系统兼容,使开发人员可以轻松将其模型从其他计算平台移植过来,并开始利用IPU的先进人工智能能力。
优化Transformer用于生产
Transformer完全改变了人工智能领域。像BERT这样的模型被广泛用于Graphcore客户在各种应用中,跨越自然语言处理等领域。这些多才多艺的模型可以进行特征提取、文本生成、情感分析、翻译等多种功能。
Hugging Face已经托管了成百上千个Transformer模型,从法语CamemBERT到应用自然语言处理的ViT。Transformer库每个月平均下载量达200万次,需求还在增长。
作为一个拥有超过50,000名开发者的用户基础 – Hugging Face见证了开源项目的最快采用速度。
现在,通过其硬件合作伙伴计划,Hugging Face将最终的Transformer工具集与当今最先进的人工智能硬件连接起来。
使用新的开源库和工具包Optimum,开发者将能够访问Hugging Face认证的经过硬件优化的模型。
这些模型是由Graphcore和Hugging Face合作开发的,首批IPU优化模型将于今年晚些时候在Optimum上发布。最终,这些模型将涵盖从视觉和语音到翻译和文本生成等广泛领域的应用。
Hugging Face首席执行官Clément Delangue表示:“开发者都希望能够访问最新和最好的硬件 – 如Graphcore IPU,但总是有一个问题,即他们是否需要学习新的代码或流程。通过Optimum和Hugging Face的硬件计划,这个问题根本不存在。它基本上是即插即用的。”
SOTA模型遇见SOTA硬件
在宣布与Hugging Face的合作之前,我们已经展示了使用Pytorch对Hugging Face的BERT进行了特别优化的Graphcore IPU加速最先进的Transformer模型的能力。
完整的示例详情可以在Graphcore博客《解释使用IPU进行BERT-Large训练》中找到。
与基于GPU的系统相比,BERT在Graphcore系统上运行的引人注目的基准结果无疑是对目前在IPU之外运行流行的NLP模型的一种诱人前景。
这种加速能够改变机器学习研究人员和工程师的游戏规则,为他们节省宝贵的训练时间,并在开发新模型时允许他们进行更多的迭代。
现在,通过Hugging Face平台,Graphcore用户将能够解锁这种性能优势,这个平台具有优雅简洁和出色的模型范围。
Hugging Face和Graphcore共同帮助更多的人访问Transformers的力量,并加速人工智能革命。
访问Hugging Face硬件合作伙伴门户网站,了解有关Graphcore IPU系统以及如何获得访问权限的更多信息。