CTranslate2

CTranslate2

高效的Transformer模型推理库,提供多种性能优化方案

CTranslate2是一个用于Transformer模型高效推理的C++和Python库,通过权重量化、层融合、批次重排序等技术,显著提升CPU和GPU上的执行速度并减少内存占用。支持多种模型类型,包括编码器-解码器、仅解码器和仅编码器模型,兼容OpenNMT-py、OpenNMT-tf、Fairseq等框架。其主要特点包括自动CPU检测、代码分发、并行和异步执行以及动态内存使用。

CTranslate2转换器模型模型压缩性能优化并行执行Github开源项目

CI PyPI version Documentation Gitter Forum

CTranslate2

CTranslate2 是一个高效推理Transformer模型的C++和Python库。

该项目实现了一个自定义运行环境,应用了许多性能优化技术,如权重量化、层融合、批处理重新排序等,以加速和减少Transformer模型在CPU和GPU上的内存使用。

目前支持以下模型类型:

  • 编码器-解码器模型: Transformer base/big, M2M-100, NLLB, BART, mBART, Pegasus, T5, Whisper
  • 仅解码器模型: GPT-2, GPT-J, GPT-NeoX, OPT, BLOOM, MPT, Llama, Mistral, Gemma, CodeGen, GPTBigCode, Falcon
  • 仅编码器模型: BERT, DistilBERT, XLM-RoBERTa

兼容的模型应首先转换为优化的模型格式。该库包含多个框架的转换器:

该项目面向生产环境,提供向后兼容性保证,同时还包括与模型压缩和推理加速相关的实验性功能。

主要特性

  • 在CPU和GPU上快速且高效的执行<br/>由于许多高级优化,执行速度显著加快,所需资源比通用深度学习框架少:层融合、填充移除、批处理重新排序、就地操作、缓存机制等。
  • 量化和减少精度<br/>模型序列化和计算支持减少精度的权重:16位浮点数(FP16),16位脑浮点数(BF16),16位整数(INT16),8位整数(INT8)和AWQ量化(INT4)。
  • 支持多种CPU架构<br/>该项目支持x86-64和AArch64/ARM64处理器,并整合了多个为这些平台优化的后端:Intel MKLoneDNNOpenBLASRuy,和Apple Accelerate
  • 自动CPU检测和代码分发<br/>一个二进制文件可以包含多个后端(如Intel MKL和oneDNN)和指令集架构(如AVX、AVX2),它们会在运行时根据CPU信息自动选择。
  • 并行和异步执行<br/>多个批次可以使用多个GPU或CPU内核并行且异步地处理。
  • 动态内存使用<br/>内存使用根据请求大小动态变化,同时通过CPU和GPU上的缓存分配器满足性能要求。
  • 轻量级磁盘占用<br/>量化可以使模型在磁盘上的大小减少四倍,并且准确性损失较小。
  • 简单集成<br/>该项目依赖性少,并在Python和C++中提供简单的API,以满足大多数集成需求。
  • 可配置和交互式解码<br/>高级解码功能允许自动补全部分序列,并在序列中指定位置返回替代方案。
  • 支持分布式推理的张量并行性<br/>非常大的模型可以拆分到多个GPU上。按照这个文档设置环境。

其中一些功能使用标准深度学习框架难以实现,这些功能是该项目的动机。

安装和使用

CTranslate2 可以通过 pip 安装:

pip install ctranslate2

Python模块用于转换模型,并可以用几行代码翻译或生成文本:

translator = ctranslate2.Translator(translation_model_path) translator.translate_batch(tokens) generator = ctranslate2.Generator(generation_model_path) generator.generate_batch(start_tokens)

查看文档以获取更多信息和示例。

基准测试

我们使用多个模型翻译 英->德 测试集 newstest2014

  • OpenNMT-tf WMT14: 在WMT14数据集(4.5M行)上使用OpenNMT-tf训练的base Transformer
  • OpenNMT-py WMT14: 在WMT14数据集(4.5M行)上使用OpenNMT-py训练的base Transformer
  • OPUS-MT: 在2020-02-26所有可用的OPUS数据(81.9M行)上使用Marian训练的base Transformer

基准测试报告每秒生成的目标标记数量(数量越高越好)。结果在多次运行中汇总。请参见基准脚本了解更多细节并重现这些数字。

请注意,以下结果仅适用于该基准测试期间使用的配置:绝对和相对性能可能会随着不同的设置而变化。

CPU

每秒标记数最大内存BLEU
OpenNMT-tf WMT14 模型
OpenNMT-tf 2.31.0(使用 TensorFlow 2.11.0)209.22653MB26.93
OpenNMT-py WMT14 模型
OpenNMT-py 3.0.4(使用 PyTorch 1.13.1)275.82012MB26.77
- int8323.31359MB26.72
CTranslate2 3.6.0658.8849MB26.77
- int16733.0672MB26.82
- int8860.2529MB26.78
- int8 + vmap1126.2598MB26.64
OPUS-MT 模型
Transformers 4.26.1(使用 PyTorch 1.13.1)147.32332MB27.90
Marian 1.11.0344.57605MB27.93
- int16330.25901MB27.65
- int8355.84763MB27.27
CTranslate2 3.6.0525.0721MB27.92
- int16596.1660MB27.53
- int8696.1516MB27.65

在配置了 Intel(R) Xeon(R) Platinum 8275CL CPU 的c5.2xlarge Amazon EC2 实例上,以4个线程执行。

GPU

每秒标记数最大GPU内存最大CPU内存BLEU
OpenNMT-tf WMT14 模型
OpenNMT-tf 2.31.0(使用 TensorFlow 2.11.0)1483.53031MB3122MB26.94
OpenNMT-py WMT14 模型
OpenNMT-py 3.0.4(使用 PyTorch 1.13.1)1795.22973MB3099MB26.77
FasterTransformer 5.36979.02402MB1131MB26.77
- float168592.51360MB1135MB26.80
CTranslate2 3.6.06634.71261MB953MB26.77
- int88567.21005MB807MB26.85
- float1610990.7941MB807MB26.77
- int8 + float168725.4813MB800MB26.83
OPUS-MT 模型
Transformers 4.26.1(使用 PyTorch 1.13.1)1022.94097MB2109MB27.90
Marian 1.11.03241.03381MB2156MB27.92
- float163962.43239MB1976MB27.94
CTranslate2 3.6.05876.41197MB754MB27.92
- int87521.91005MB792MB27.79
- float169296.7909MB814MB27.90
- int8 + float168362.7813MB766MB27.90

使用CUDA 11在配置了 NVIDIA A10G GPU(驱动版本:510.47.03)的g5.xlarge Amazon EC2 实例上执行。

其他资源

编辑推荐精选

商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

即梦AI

即梦AI

一站式AI创作平台

提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作

扣子-AI办公

扣子-AI办公

AI办公助手,复杂任务高效处理

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
下拉加载更多