当前位置:首页|资讯|Hugging Face|GPT-4|金融

在英特尔至强 CPU 上使用 Optimum Intel 实现超快 SetFit 推理

作者:HuggingFace发布时间:2024-05-06

在缺少标注数据场景,SetFit 是解决的建模问题的一个有前途的解决方案,其由 Hugging Face 与 Intel 实验室以及UKP Lab 合作共同开发。作为一个高效的框架,SetFit 可用于对Sentence Transformers模型进行少样本微调。

SetFit 仅需很少的标注数据就能达到较高的准确率,例如,在使用 3-示例提示时,SetFit优于GPT-3.5;在使用 5-示例提示时,其在 Banking 77 金融意图数据集上的表现也优于使用 3-示例提示的 GPT-4。

  • Intel 实验室:https://www.intel.com/content/www/us/en/research/overview.html

  • UKP Lab:https://www.informatik.tu-darmstadt.de/ukp/ukphome/index.en.jsp

  • Sentence Transformers:https://sbert.net/

  • SetFit 优于 GPT-3.5:https://arxiv.org/pdf/2311.06102.pdf

与基于 LLM 的方法相比,SetFit 有两个独特的优势:

  • 🗣 无需提示或词-标签映射器:基于 LLM 的少样本上下文学习依赖于人工制作的提示,其对措辞比较敏感,且依赖用户的专业知识,因此效果比较脆弱。SetFit 直接从少量标注文本样本中生成丰富的嵌入,从而完全省去了提示。

  • 🏎 训练速度快:SetFit 不依赖 GPT-3.5 或 Llama2 等 LLM 来实现高准确率。因此,训练和推理速度通常要快一个数量级 (或更多) 。

有关 SetFit 的更多详情,请参阅:论文、博客、代码及相关数据。Setfit 已被 AI 开发者社区广泛采用,每月下载量约为 10 万次,Hub 上的 SetFit 模型约有1500个,平均日增量约为 4 个!

  • 论文:https://arxiv.org/abs/2209.11055

  • 博客:https://hf.co/blog/setfit

  • 代码:https://github.com/huggingface/setfit

  • 数据:https://hf.co/SetFit

  • Hugging Face Hub 上的 SetFit 模型https://hf.co/models?library=setfit

加速!

本文,我们将解释如何用 🤗Optimum Intel优化你的 SetFit 模型,从而在英特尔 CPU 上实现 7.8x 的推理加速。我们还将展示如何轻松对模型进行训后量化,从而实现巨大的吞吐增益。有了这些技术,用户可在英特尔至强 CPU 上部署生产级的 SetFit 解决方案。

Optimum Intel是一个开源库,可在英特尔硬件上对由 Hugging Face 库构建的端到端流水线进行加速。Optimum Intel 实现了多种模型加速技术,如低比特量化、模型权重剪枝、蒸馏以及运行时加速。

Optimum Intel的运行时及各种优化都充分利用了英特尔® AVX-512、矢量神经网络指令 (VNNI) 以及最新的英特尔® 先进矩阵扩展 (英特尔® AMX) 以对模型进行极致加速。具体来说,英特尔在每个 CPU 核中都内置了bfloat16(bf16) 和 int8 GEMM 加速器,以加速深度学习训练和推理工作负载。尤其值得一提的是,PyTorch 2.0 和Intel Extension for PyTorch(IPEX) 中加入了 AMX 优化以进一步加速推理及训练。

  • Optimum Intel:https://github.com/huggingface/optimum-intel

  • bfloat16:https://en.wikipedia.org/wiki/Bfloat16floating-pointformat

  • Intel Extension for PyTorch:https://github.com/intel/intel-extension-for-pytorch

使用 Optimum Intel 可以轻松对各种预训练模型进行加速,你可在此处找到很多例子。本文也附有一个notebook 版,可供大家逐步演练。

  • Optimum Intel 案例:https://hf.co/docs/optimum/main/en/intel/optimizationinc

  • Notebook 版:https://github.com/huggingface/setfit/blob/main/notebooks/setfit-optimum-intel.ipynb

第 1 步:使用 🤗 Optimum Intel 量化 SetFit 模型

在对 SetFit 模型进行优化时,我们会使用英特尔神经压缩器(INC) 对模型进行量化,其已集成入 Optimum Intel。

  • 英特尔神经压缩器:https://www.intel.cn/content/www/cn/zh/developer/tools/oneapi/neural-compressor.html

量化是一种非常流行的深度学习模型优化技术,可用于提高推理速度。它通过将一组高精度数值转换为较低位宽的数据类型 (如 INT8) 。从而最大限度地降低神经网络的权重和/或激活所需的位数。另外,由于位宽较低,其计算速度也可能会更快。

本文,我们将使用训后静态量化 (PTQ) 。PTQ 仅需少量未标注校准数据,无需任何训练即可在保持模型的准确性的同时减低推理时的内存占用并降低延迟。首先请确保你已安装所有必要的库,同时确保 Optimum Intel 版本至少为 1.14.0 (因为 PTQ 功能是从该版本开始引入的) :

准备校准数据集

校准数据集应能在数据分布上较好代表未见数据。一般来说,准备 100 个样本就足够了。在本例中,我们使用的是 rottentomatoes 数据集,其是一个电影评论数据集,与我们的目标数据集 sst2 类似。

首先,我们从该数据集中随机加载 100 个样本。然后,为了准备量化数据集,我们需要对每个样本进行标注。我们不需要 text 和 label 列,因此将其删除。

量化

量化前,先要配置所需的量化方案,本例中为静态训后量化,再使用 optimum.intel 在校准数据集上运行量化:

就这样!现在,我们有了一个量化版的 SetFit 模型。下面,我们对其进行测试。

第 2 步:推理基准测试

我们在notebook中写了一个 PerformanceBenchmark 类,用于计算模型延迟和吞吐量,并用于测量模型准确度。我们现在用它来对以下三种配置进行基准测试:

  • 使用 PyTorch 和 🤗 Transformers 库对 fp32 模型进行推理。

  • 使用Intel Extension for PyTorch:https://github.com/intel/intel-extension-for-pytorch(IPEX) 对模型进行 bf16 推理,同时使用 TorchScript 对模型进行图优化。

  • 使用 Optimum Intel 对 int8 量化模型进行推理。

加载测试数据集 sst2,并使用 PyTorch 和 🤗 Transformers 库运行基准测试:

第二个基准测试,我们将使用 bf16 精度和 TorchScript 两种优化手段,并使用IPEX优化库。要使用 IPEX,我们只需导入 IPEX 库并对模型应用 ipex.optimize(),在本例中,目标模型是 SetFit 的模型体:

使用 TorchScript 进行图优化时,我们根据模型的最大输入长度生成随机序列,并从分词器的词汇表中采样词汇:

最后,我们对量化的 Optimum 模型运行基准测试。我们首先定义一个 SetFit 模型的包装类,该包装类在推理时会自动插入量化模型体 (而不是原始模型体) 。然后,我们用这个包装类跑基准测试。

  • Notebook 网址:https://github.com/huggingface/setfit/blob/main/notebooks/setfit-optimum-intel.ipynb

  • IPEX:https://github.com/intel/intel-extension-for-pytorch

结果

精度与延迟关系图 (batch size=1)


bge-small (transformers)bge-small (ipex-bfloat16)bge-small (optimum-int8)模型大小127.32 MB63.74 MB44.65 MB测试集准确率88.4%88.4%88.1%延迟 (bs=1)15.69 +/- 0.57 ms5.67 +/- 0.66 ms4.55 +/- 0.25 ms

batch size 为 1 时,我们的优化模型将延迟降低了 3.45 倍。请注意,此时准确率几乎没有下降!另外值得一提的是,模型大小缩小了 2.85x。

我们将焦点转向不同 batch size 下的吞吐量。这里,我们获得了更大的加速。如果比较最高吞吐量 (不限 batch size) ,优化后的模型比原始 transformers fp32 模型高 7.8 倍!

总结

我们展示了如何使用 🤗 Optimum Intel 中的量化功能来优化 SetFit 模型。在轻松快速地对模型完成训后量化后,我们观察到在准确度损失很小的情况下,推理吞吐量增加了 7.8 倍。用户可以使用这种优化方法在英特尔至强 CPU 上轻松部署任何现有 SetFit 模型。

参考文献

Lewis Tunstall, Nils Reimers, Unso Eun Seo Jo, Luke Bates, Daniel Korat, Moshe Wasserblat, Oren Pereg, 2022. "Efficient Few-Shot Learning Without Prompts". https://arxiv.org/abs/2209.11055

英文原文: https://hf.co/blog/setfit-optimum-intel

原文作者: Daniel Korat, Tom Aarsen, Oren Pereg, Moshe Wasserblat, Ella Charlaix, Abirami Prabhakaran

译者: Matrix Yao (姚伟峰),英特尔深度学习工程师,工作方向为 transformer-family 模型在各模态数据上的应用及大规模模型的训练推理。



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1