CTranslate2

CTranslate2

高效的Transformer模型推理库,提供多种性能优化方案

CTranslate2是一个用于Transformer模型高效推理的C++和Python库,通过权重量化、层融合、批次重排序等技术,显著提升CPU和GPU上的执行速度并减少内存占用。支持多种模型类型,包括编码器-解码器、仅解码器和仅编码器模型,兼容OpenNMT-py、OpenNMT-tf、Fairseq等框架。其主要特点包括自动CPU检测、代码分发、并行和异步执行以及动态内存使用。

CTranslate2转换器模型模型压缩性能优化并行执行Github开源项目

CI PyPI version Documentation Gitter Forum

CTranslate2

CTranslate2 是一个高效推理Transformer模型的C++和Python库。

该项目实现了一个自定义运行环境,应用了许多性能优化技术,如权重量化、层融合、批处理重新排序等,以加速和减少Transformer模型在CPU和GPU上的内存使用。

目前支持以下模型类型:

  • 编码器-解码器模型: Transformer base/big, M2M-100, NLLB, BART, mBART, Pegasus, T5, Whisper
  • 仅解码器模型: GPT-2, GPT-J, GPT-NeoX, OPT, BLOOM, MPT, Llama, Mistral, Gemma, CodeGen, GPTBigCode, Falcon
  • 仅编码器模型: BERT, DistilBERT, XLM-RoBERTa

兼容的模型应首先转换为优化的模型格式。该库包含多个框架的转换器:

该项目面向生产环境,提供向后兼容性保证,同时还包括与模型压缩和推理加速相关的实验性功能。

主要特性

  • 在CPU和GPU上快速且高效的执行<br/>由于许多高级优化,执行速度显著加快,所需资源比通用深度学习框架少:层融合、填充移除、批处理重新排序、就地操作、缓存机制等。
  • 量化和减少精度<br/>模型序列化和计算支持减少精度的权重:16位浮点数(FP16),16位脑浮点数(BF16),16位整数(INT16),8位整数(INT8)和AWQ量化(INT4)。
  • 支持多种CPU架构<br/>该项目支持x86-64和AArch64/ARM64处理器,并整合了多个为这些平台优化的后端:Intel MKLoneDNNOpenBLASRuy,和Apple Accelerate
  • 自动CPU检测和代码分发<br/>一个二进制文件可以包含多个后端(如Intel MKL和oneDNN)和指令集架构(如AVX、AVX2),它们会在运行时根据CPU信息自动选择。
  • 并行和异步执行<br/>多个批次可以使用多个GPU或CPU内核并行且异步地处理。
  • 动态内存使用<br/>内存使用根据请求大小动态变化,同时通过CPU和GPU上的缓存分配器满足性能要求。
  • 轻量级磁盘占用<br/>量化可以使模型在磁盘上的大小减少四倍,并且准确性损失较小。
  • 简单集成<br/>该项目依赖性少,并在Python和C++中提供简单的API,以满足大多数集成需求。
  • 可配置和交互式解码<br/>高级解码功能允许自动补全部分序列,并在序列中指定位置返回替代方案。
  • 支持分布式推理的张量并行性<br/>非常大的模型可以拆分到多个GPU上。按照这个文档设置环境。

其中一些功能使用标准深度学习框架难以实现,这些功能是该项目的动机。

安装和使用

CTranslate2 可以通过 pip 安装:

pip install ctranslate2

Python模块用于转换模型,并可以用几行代码翻译或生成文本:

translator = ctranslate2.Translator(translation_model_path) translator.translate_batch(tokens) generator = ctranslate2.Generator(generation_model_path) generator.generate_batch(start_tokens)

查看文档以获取更多信息和示例。

基准测试

我们使用多个模型翻译 英->德 测试集 newstest2014

  • OpenNMT-tf WMT14: 在WMT14数据集(4.5M行)上使用OpenNMT-tf训练的base Transformer
  • OpenNMT-py WMT14: 在WMT14数据集(4.5M行)上使用OpenNMT-py训练的base Transformer
  • OPUS-MT: 在2020-02-26所有可用的OPUS数据(81.9M行)上使用Marian训练的base Transformer

基准测试报告每秒生成的目标标记数量(数量越高越好)。结果在多次运行中汇总。请参见基准脚本了解更多细节并重现这些数字。

请注意,以下结果仅适用于该基准测试期间使用的配置:绝对和相对性能可能会随着不同的设置而变化。

CPU

每秒标记数最大内存BLEU
OpenNMT-tf WMT14 模型
OpenNMT-tf 2.31.0(使用 TensorFlow 2.11.0)209.22653MB26.93
OpenNMT-py WMT14 模型
OpenNMT-py 3.0.4(使用 PyTorch 1.13.1)275.82012MB26.77
- int8323.31359MB26.72
CTranslate2 3.6.0658.8849MB26.77
- int16733.0672MB26.82
- int8860.2529MB26.78
- int8 + vmap1126.2598MB26.64
OPUS-MT 模型
Transformers 4.26.1(使用 PyTorch 1.13.1)147.32332MB27.90
Marian 1.11.0344.57605MB27.93
- int16330.25901MB27.65
- int8355.84763MB27.27
CTranslate2 3.6.0525.0721MB27.92
- int16596.1660MB27.53
- int8696.1516MB27.65

在配置了 Intel(R) Xeon(R) Platinum 8275CL CPU 的c5.2xlarge Amazon EC2 实例上,以4个线程执行。

GPU

每秒标记数最大GPU内存最大CPU内存BLEU
OpenNMT-tf WMT14 模型
OpenNMT-tf 2.31.0(使用 TensorFlow 2.11.0)1483.53031MB3122MB26.94
OpenNMT-py WMT14 模型
OpenNMT-py 3.0.4(使用 PyTorch 1.13.1)1795.22973MB3099MB26.77
FasterTransformer 5.36979.02402MB1131MB26.77
- float168592.51360MB1135MB26.80
CTranslate2 3.6.06634.71261MB953MB26.77
- int88567.21005MB807MB26.85
- float1610990.7941MB807MB26.77
- int8 + float168725.4813MB800MB26.83
OPUS-MT 模型
Transformers 4.26.1(使用 PyTorch 1.13.1)1022.94097MB2109MB27.90
Marian 1.11.03241.03381MB2156MB27.92
- float163962.43239MB1976MB27.94
CTranslate2 3.6.05876.41197MB754MB27.92
- int87521.91005MB792MB27.79
- float169296.7909MB814MB27.90
- int8 + float168362.7813MB766MB27.90

使用CUDA 11在配置了 NVIDIA A10G GPU(驱动版本:510.47.03)的g5.xlarge Amazon EC2 实例上执行。

其他资源

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多