
BytePiece是由苏剑林开发的一个新型Tokenizer,它采用基于字节的Unigram分词算法,具有以下主要特点:
BytePiece的设计目标是成为一个理想的Tokenizer,具备无损重构、高压缩率、语言无关、数据驱动和训练友好等特性。相比主流的SentencePiece,BytePiece在某些方面做出了改进和创新。
BytePiece的核心是采用了基于**字节级N-gram语言模型(BNLM)**的新训练方式。这种方法能够获得更高压缩率的词表,同时支持多进程训练,在同等语料下相比SentencePiece的BPE训练有明显的加速效果。
具体来说,BytePiece的训练算法基于N-gram语言模型的新词发现算法,这一算法最早由作者在7年前的博客中提出。此外,BytePiece还提供了比Subword Regularization更高效的随机分词算法。
BytePiece的训练过程分为两个阶段:
这种新的训练方案是BytePiece能够获得更高压缩率的关键所在。

高压缩率: 在相同词表大小下,BytePiece通常能获得比SentencePiece更高的压缩率。
快速训练: 支持多进程训练,在大规模语料上 的训练速度明显快于SentencePiece的BPE算法。
语言无关: 直接操作UTF-8字节,不对文本做任何语言相关的预处理。
纯Python实现: 代码易读易扩展,方便研究和二次开发。
高效随机分词: 提供比Subword Regularization更高效的随机分词算法。
支持流式输入: 训练时支持迭代器输入,无需一次性将所有语料读入内存。
BytePiece只能在Python 3上运行,安装前需要先安装Byte-based版的pyahocorasick:
pip uninstall pyahocorasick AHOCORASICK_BYTES=1 pip install git+https://github.com/WojciechMula/pyahocorasick.git
然后安装BytePiece:
pip install bytepiece==0.6.3
训练Tokenizer只需要引入Trainer类:
from bytepiece import Trainer trainer = Trainer(order=6, max_vocab_size=100000, min_count=32) trainer.train(corpus(), workers=64, batch_size=1000) trainer.save('bytepiece.model')
主要参数说明:
order: n-gram语言模型的阶,默认6max_vocab_size: 词表最大尺寸min_count: token最低出现频数workers: 并行训练的进程数batch_size: 批大小训练完成后,可以这样使用Tokenizer:
from bytepiece import Tokenizer tokenizer = Tokenizer('bytepiece.model') text = '今天天气不错' tokens = tokenizer.tokenize(text) # 返回bytes的list print(b' '.join(tokens).decode(errors='ignore')) # 可视化分词结果 ids = tokenizer.encode(text) # 返回tokens对应的ids print(tokenizer.decode(ids)) # 重新将ids解码为unicode文本
BytePiece还支持随机分词:
tokens = tokenizer.tokenize(text, alpha=0.2) # 随机tokenize
在小数据量和大数据量上,BytePiece与SentencePiece(SP)的BPE和Unigram算法进行了对比测试,结果如下:
小数据量对比:
| 训练时间↓ | 最大内存占用↓ | 压缩率↑ | 分词速度↑ | |
|---|---|---|---|---|
| SP-BPE | 55.3分钟 | 5.2GB | 4.80 | 5.47 |
| SP-Unigram | 1.6分钟 | 2.5GB | 4.73 | 7.84 |
| BytePiece | 6.5分钟 | 4.3GB | 5.05 | 2.50 |
大数据量对比:
| 训练时间↓ | 最大内存占用↓ | 压缩率(同源)↑ | 压缩率(异源)↑ | 分词速度↑ | |
|---|---|---|---|---|---|
| SP-BPE | 19.21小时 | 97GB | 4.52 | 4.46 | 1.27 |
| SP-Unigram | 2.02小时 | 384GB | 4.51 | 4.48 | 5.55 |
| BytePiece | 2.24小时 | 51GB | 5.39 | 4.51 | 1.92 |
从结果可以看出:
这些结果表明,BytePiece在保持高压缩率的同时,还具有良好的训练效率和内存利用率。
BytePiece作为一种新型的Tokenizer,在以下场景中具 有很好的应用前景:
大规模语言模型训练: 高压缩率和快速训练特性使其适合处理海量文本数据。
多语言NLP任务: 语言无关的特性使其能够很好地处理多语言文本。
资源受限环境: 纯Python实现和低内存占用使其适合在资源受限的环境中使用。
NLP研究和教学: 代码易读易扩展的特性有利于深入研究和教学。
实时文本处理: 高效的分词算法使其适用于实时文本处理场景。
BytePiece作为一种新型的Tokenizer,在压缩率、训练效率和语言无关性等方面都表现出了优秀的特性。它的出现为NLP领域提供了一个新的选择,特别是在处理大规模多语言文本数据时,BytePiece可能会带来显著的性能提升。
然而,BytePiece仍然是一个相对新的项目,可能还需要更多的实际应用和测试来验证其在各种场景下的表现。对于研究者和开发者来说,BytePiece无疑是一个值得关注和尝试的工具。
随着自然语言处理技术的不断发展,我们可以期待BytePiece在未来会得到更广泛的应用,并在实践中不断完善和提升其性能。同时,BytePiece的开源性质也为社区贡献和改进提供了机会,相信在开发者的共同努力下,BytePiece会变得更加强大和实用。


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
最新AI工具、AI资讯
独家AI资源、AI项目落地
