
BytePiece是由苏剑林开发的一个新型Tokenizer,它采用基于字节的Unigram分词算法,具有以下主要特点:
BytePiece的设计目标是成为一个理想的Tokenizer,具备无损重构、高压缩率、语言无关、数据驱动和训练友好等特性。相比主流的SentencePiece,BytePiece在某些方面做出了改进和创新。
BytePiece的核心是采用了基于**字节级N-gram语言模型(BNLM)**的新训练方式。这种方法能够获得更高压缩率的词表,同时支持多进程训练,在同等语料下相比SentencePiece的BPE训练有明显的加速效果。
具体来说,BytePiece的训练算法基于N-gram语言模型的新词发现算法,这一算法最早由作者在7年前的博客中提出。此外,BytePiece还提供了比Subword Regularization更高效的随机分词算法。
BytePiece的训练过程分为两个阶段:
这种新的训练方案是BytePiece能够获得更高压缩率的关键所在。

高压缩率: 在相同词表大小下,BytePiece通常能获得比SentencePiece更高的压缩率。
快速训练: 支持多进程训练,在大规模语料上 的训练速度明显快于SentencePiece的BPE算法。
语言无关: 直接操作UTF-8字节,不对文本做任何语言相关的预处理。
纯Python实现: 代码易读易扩展,方便研究和二次开发。
高效随机分词: 提供比Subword Regularization更高效的随机分词算法。
支持流式输入: 训练时支持迭代器输入,无需一次性将所有语料读入内存。
BytePiece只能在Python 3上运行,安装前需要先安装Byte-based版的pyahocorasick:
pip uninstall pyahocorasick AHOCORASICK_BYTES=1 pip install git+https://github.com/WojciechMula/pyahocorasick.git
然后安装BytePiece:
pip install bytepiece==0.6.3
训练Tokenizer只需要引入Trainer类:
from bytepiece import Trainer trainer = Trainer(order=6, max_vocab_size=100000, min_count=32) trainer.train(corpus(), workers=64, batch_size=1000) trainer.save('bytepiece.model')
主要参数说明:
order: n-gram语言模型的阶,默认6max_vocab_size: 词表最大尺寸min_count: token最低出现频数workers: 并行训练的进程数batch_size: 批大小训练完成后,可以这样使用Tokenizer:
from bytepiece import Tokenizer tokenizer = Tokenizer('bytepiece.model') text = '今天天气不错' tokens = tokenizer.tokenize(text) # 返回bytes的list print(b' '.join(tokens).decode(errors='ignore')) # 可视化分词结果 ids = tokenizer.encode(text) # 返回tokens对应的ids print(tokenizer.decode(ids)) # 重新将ids解码为unicode文本
BytePiece还支持随机分词:
tokens = tokenizer.tokenize(text, alpha=0.2) # 随机tokenize
在小数据量和大数据量上,BytePiece与SentencePiece(SP)的BPE和Unigram算法进行了对比测试,结果如下:
小数据量对比:
| 训练时间↓ | 最大内存占用↓ | 压缩率↑ | 分词速度↑ | |
|---|---|---|---|---|
| SP-BPE | 55.3分钟 | 5.2GB | 4.80 | 5.47 |
| SP-Unigram | 1.6分钟 | 2.5GB | 4.73 | 7.84 |
| BytePiece | 6.5分钟 | 4.3GB | 5.05 | 2.50 |
大数据量对比:
| 训练时间↓ | 最大内存占用↓ | 压缩率(同源)↑ | 压缩率(异源)↑ | 分词速度↑ | |
|---|---|---|---|---|---|
| SP-BPE | 19.21小时 | 97GB | 4.52 | 4.46 | 1.27 |
| SP-Unigram | 2.02小时 | 384GB | 4.51 | 4.48 | 5.55 |
| BytePiece | 2.24小时 | 51GB | 5.39 | 4.51 | 1.92 |
从结果可以看出:
这些结果表明,BytePiece在保持高压缩率的同时,还具有良好的训练效率和内存利用率。
BytePiece作为一种新型的Tokenizer,在以下场景中具 有很好的应用前景:
大规模语言模型训练: 高压缩率和快速训练特性使其适合处理海量文本数据。
多语言NLP任务: 语言无关的特性使其能够很好地处理多语言文本。
资源受限环境: 纯Python实现和低内存占用使其适合在资源受限的环境中使用。
NLP研究和教学: 代码易读易扩展的特性有利于深入研究和教学。
实时文本处理: 高效的分词算法使其适用于实时文本处理场景。
BytePiece作为一种新型的Tokenizer,在压缩率、训练效率和语言无关性等方面都表现出了优秀的特性。它的出现为NLP领域提供了一个新的选择,特别是在处理大规模多语言文本数据时,BytePiece可能会带来显著的性能提升。
然而,BytePiece仍然是一个相对新的项目,可能还需要更多的实际应用和测试来验证其在各种场景下的表现。对于研究者和开发者来说,BytePiece无疑是一个值得关注和尝试的工具。
随着自然语言处理技术的不断发展,我们可以期待BytePiece在未来会得到更广泛的应用,并在实践中不断完善和提升其性能。同时,BytePiece的开源性质也为社区贡献和改进提供了机会,相信在开发者的共同努力下,BytePiece会变得更加强大和实用。


全球首个AI音乐社区
音述AI是全球首个AI音乐社区,致力让每个人都能用音乐表达自我。音述AI提供零门槛AI创作工具,独创GETI法则帮助用户精准定义音乐风格,AI润色功能支持自动优化作品质感。音述AI支持交流讨论、二次创作与价值变现。针对中文用户的语言习惯与文化背景进行专门优化,支持国风融合、C-pop等本土音乐标签,让技术更好地承载人文表达。


一站式搞定所有学习需求
不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。


为AI短剧协作而生
专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧 全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。


能听懂你表达的视频模型
Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。


国内直接访问,限时3折
输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动


职场AI,就用扣子
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!


多风格AI绘画神器
堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。


零代码AI应用开发平台
零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号