Rust-tokenizers: 高性能自然语言处理分词器库

RayRay
rust-tokenizers语言模型分词器性能优化自然语言处理Github开源项目

rust-tokenizers

Rust-tokenizers: 为 NLP 模型提供高性能分词支持

在自然语言处理(NLP)领域,分词是一项基础且关键的任务。随着深度学习模型的发展,对分词器的性能和功能要求也越来越高。Rust-tokenizers 正是为满足这一需求而生的高性能分词器库。

项目概述

Rust-tokenizers 是一个用 Rust 语言编写的开源分词器库,旨在为现代 NLP 模型提供高效的分词支持。该项目由 Guillaume Becquin 发起并维护,目前在 GitHub 上已获得 288 颗星和 25 次 fork。

Rust-tokenizers GitHub 仓库截图

Rust-tokenizers 的主要特点包括:

  1. 高性能: 充分利用 Rust 语言的性能优势,提供快速的分词处理。
  2. 多种算法: 支持 WordPiece、Byte-Pair Encoding (BPE)和 Unigram (SentencePiece)等主流分词算法。
  3. 广泛兼容: 可用于多种主流 Transformer 模型,如 BERT、GPT、RoBERTa 等。
  4. 多线程支持: 部分分词器提供多线程处理能力,进一步提升性能。
  5. Python 绑定: 除 Rust API 外,还提供 Python 绑定,方便在 Python 项目中使用。

支持的分词器

Rust-tokenizers 支持以下主流 NLP 模型的分词器:

  • Sentence Piece (unigram 模型)
  • Sentence Piece (BPE 模型)
  • BERT
  • ALBERT
  • DistilBERT
  • RoBERTa
  • GPT
  • GPT2
  • ProphetNet
  • CTRL
  • Pegasus
  • MBart50
  • M2M100
  • DeBERTa
  • DeBERTa (v2)

这些分词器覆盖了目前自然语言处理领域最常用的一系列预训练模型,为研究人员和开发者提供了广泛的选择。

使用示例

下面是一个使用 Rust-tokenizers 中 BERT 分词器的简单示例:

use std::path::PathBuf; use rust_tokenizers::tokenizer::{BertTokenizer, Tokenizer, TruncationStrategy}; use rust_tokenizers::vocab::{BertVocab, Vocab}; fn main() -> Result<(), Box<dyn std::error::Error>> { let lowercase: bool = true; let strip_accents: bool = true; let vocab_path: PathBuf = PathBuf::from("path/to/vocab"); let vocab: BertVocab = BertVocab::from_file(&vocab_path)?; let test_sentence = "This is a sample sentence to be tokenized"; let bert_tokenizer: BertTokenizer = BertTokenizer::from_existing_vocab(vocab, lowercase, strip_accents); let encoding = bert_tokenizer.encode( test_sentence, None, 128, &TruncationStrategy::LongestFirst, 0 )?; println!("Tokens: {:?}", encoding.get_tokens()); println!("Token IDs: {:?}", encoding.get_ids()); Ok(()) }

这个例子展示了如何加载 BERT 词汇表,创建 BERT 分词器,并对一个简单的句子进行分词。代码中的 encode 方法返回一个 Encoding 对象,其中包含了分词结果、token ID 等信息。

Python 绑定

除了原生的 Rust API,Rust-tokenizers 还提供了 Python 绑定,让 Python 开发者也能享受到其高性能的优势。以下是一个使用 Python API 的示例:

from rust_transformers import PyBertTokenizer from transformers import BertForSequenceClassification import torch rust_tokenizer = PyBertTokenizer('bert-base-uncased-vocab.txt') model = BertForSequenceClassification.from_pretrained('bert-base-uncased', output_attentions=False).cuda() model = model.eval() sentence = '''For instance, on the planet Earth, man had always assumed that he was more intelligent than dolphins because he had achieved so much—the wheel, New York, wars and so on—whilst all the dolphins had ever done was muck about in the water having a good time. But conversely, the dolphins had always believed that they were far more intelligent than man—for precisely the same reasons.''' features = rust_tokenizer.encode(sentence, max_len=128, truncation_strategy='only_first', stride=0) input_ids = torch.tensor([f.token_ids for f in features], dtype=torch.long).cuda() with torch.no_grad(): output = model(input_ids)[0].cpu().numpy() print("Model output:", output)

这个例子展示了如何在 Python 中使用 Rust-tokenizers 的 BERT 分词器,并结合 Hugging Face 的 transformers 库进行序列分类任务。

性能优势

Rust-tokenizers 的一大亮点是其出色的性能。得益于 Rust 语言的高效和底层控制能力,Rust-tokenizers 能够提供比纯 Python 实现更快的分词速度。特别是在处理大规模文本数据时,这种性能优势更为明显。

Rust-tokenizers 性能对比图

上图展示了 Rust-tokenizers 与其他分词器实现的性能对比。可以看到,在多数情况下,Rust-tokenizers 能够提供更快的处理速度。

安装和使用

对于 Rust 开发者,可以通过在 Cargo.toml 文件中添加依赖来使用 Rust-tokenizers:

[dependencies] rust_tokenizers = "8.1.1"

对于 Python 开发者,需要先安装 Rust 环境(推荐使用 nightly 版本),然后通过以下步骤安装 Python 绑定:

  1. 克隆 Rust-tokenizers 仓库
  2. 进入 /python-bindings 目录
  3. 运行 python setup.py install

这将编译 Rust 库并安装 Python API。

社区和贡献

Rust-tokenizers 是一个活跃的开源项目,欢迎社区贡献。如果你在使用过程中遇到问题或有改进建议,可以在 GitHub 仓库提出 issue 或提交 pull request。项目维护者 Guillaume Becquin 和其他贡献者会积极响应社区反馈。

未来展望

随着 NLP 技术的不断发展,Rust-tokenizers 也在持续更新以支持新的模型和算法。未来,我们可以期待:

  1. 支持更多新兴的 NLP 模型和分词算法
  2. 进一步优化性能,特别是在多核处理器上的并行能力
  3. 改进 Python 绑定,提供更丰富的 API 和更好的集成体验
  4. 增加更多的文档和教程,帮助开发者更好地使用库

结语

Rust-tokenizers 为 NLP 领域带来了高性能、灵活和易用的分词解决方案。无论是在学术研究还是工业应用中,它都是一个值得考虑的强大工具。随着项目的不断发展和社区的支持,我们有理由相信 Rust-tokenizers 将在未来的 NLP 生态系统中扮演越来越重要的角色。

如果你正在寻找一个高效、可靠的分词器库,不妨给 Rust-tokenizers 一次尝试。它可能会成为提升你的 NLP 项目性能的关键一步。

查看 Rust-tokenizers GitHub 仓库 Rust-tokenizers 文档

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多