RedPajama-Data

RedPajama-Data

开放大规模多语言数据集助力大型语言模型训练

RedPajama-Data-v2是一个包含30万亿tokens的开放数据集,用于训练大型语言模型。该数据集涵盖了超过100B的文本文档,来源于84个CommonCrawl快照。它包含英语、德语、法语、意大利语和西班牙语5种语言的内容,并提供多种质量信号和去重处理。项目提供完整的数据处理流程,包括准备工件、计算质量信号和去重等步骤,为语言模型研究提供高质量的大规模语料资源。

RedPajama-Data-v2大语言模型开放数据集自然语言处理数据质量Github开源项目

RedPajama-Data-v2:一个包含30万亿个标记的开放数据集,用于训练大型语言模型

<img width="500" src="https://yellow-cdn.veclightyear.com/835a84d5/b3a6daf7-c147-4f97-a022-009b56bda72c.png" />

本仓库包含RedPajama-V2数据集的代码。有关该数据集的更多信息,请查看我们的博客文章。该数据集也可在HuggingFace上获取。关于RedPajama-1T数据集使用的代码,请参考本仓库的rp_v1分支。

数据集

RedPajama-V2是一个用于训练大型语言模型的开放数据集。该数据集包含来自84个CommonCrawl快照的超过1000亿个文本文档,使用CCNet管道进行处理。其中,语料库中有300亿个文档附带质量信号,200亿个文档经过了去重处理。

数据集带注释和去重的head_middle部分的文档和标记数量

下表显示了数据集带注释和去重的head_middle部分的文档数量和标记数量。

文档数量估计标记数量(去重后)
英语145亿20.5万亿
德语19亿3.0万亿
法语16亿2.7万亿
西班牙语18亿2.8万亿
意大利语9亿1.5万亿
总计208亿30.4万亿

语言

英语、德语、法语、意大利语、西班牙语

设置

配置

configs/rp_v2.0.conf文件复制到如configs/default.conf,并配置环境变量。这些变量将在整个管道中使用。

构建Docker镜像

要使用docker运行,请使用以下命令构建docker镜像:

. configs/default.conf cd app docker build -t "${DOCKER_REPO}:" .

另外,请确保您已安装s5cmd并配置了S3配置文件,以便从S3存储桶拉取数据。

您可以在非容器化环境中运行管道的各个步骤。但是,运行脚本假定您已安装docker和apptainer。

运行管道

该管道由三个步骤组成,分别是1)准备制品,2)计算质量信号,以及3)去重。

**重要提示:**如果您不使用提供的脚本(即使用提供的Dockerfile构建的docker容器)运行步骤(1)和(2),请确保使用以下命令将PYTHONHASHSEED环境变量设置为一个一致的值(例如42):

export PYTHONHASHSEED=42

这是为了确保用于计算DSIR权重的哈希函数的一致性。

1. 创建制品

管道的这一部分创建后续步骤中使用的制品。这包括构建质量分类器、训练用于重要性权重计算的n-gram生成模型、从LDNOOBW仓库获取不良词列表,以及从UT1黑名单获取最新的黑名单URL列表。

首先,从这里下载英语维基百科参考分类器,并将其放在${DATA_ROOT}/wikiref-model/en/en-model.bin中。这与RedPajama-V1中使用的fasttext分类器相同。

要创建其余制品,请确保在配置文件中设置了环境变量。然后,从仓库的根目录运行:

bash scripts/run_prep_artifacts.sh \ --config configs/rp_v2.0.conf \ --listings /path/to/listings/file.txt\ --max_workers 32

其中/path/to/listings/file.txt是包含要处理的ccnet数据键的文件(例如2023-06/0000/en_head.json.gz)。

您可以将max_workers标志设置为要使用的并行进程数。

此步骤将生成一个ID,您可以将其存储在环境变量ARTIFACTS_ID中,以供下一步使用。

2. 计算质量信号

管道的第二步计算质量信号,包括用于后续步骤中进行模糊去重的最小哈希签名。要运行此步骤,请确保在配置文件中设置了环境变量。然后,从仓库的根目录运行:

bash scripts/apptainer_run_quality_signals.sh \ --config configs/rp_v2.0.conf \ --dump_id "2022-49" \ --input_base_uri "file:///path/to/data/root" \ --output_base_uri "file:///path/to/outout/data/root" \ --max_docs -1

3. 去重

管道的第三个组件包括去重步骤。这里我们提供代码来运行精确和模糊去重。

使用布隆过滤器进行精确去重

基于内容的去重在app/src/bloomfilter.py中实现。它可以独立于前一步骤运行,但数据需要存储在S3存储桶中。对于这一步骤,从app目录运行:

python3 app/src/bloomfilter.py \ --listings /path/to/listings/file.txt \ --input_base_uri "s3://path/to/ccnet/data" \ --output_dir "/path/to/output" \ --s3_profile "..." \ --endpoint_url "..." \ --parallel_readers 32 \ --batch_size 10 \ --capacity "..." \ --error_rate "..."

选择正确的容量(即>文档数)很重要,否则无法保证error_rate,并且会出现更多假阳性。该实现基于pybloomfiltermmap3库。

使用局部敏感哈希进行模糊去重

在管道的第三步中,我们对第一步生成的最小哈希签名运行局部敏感哈希。要运行此步骤,请确保使用与质量信号步骤相同的配置。然后,从仓库的根目录运行:

bash scripts/apptainer_run_lsh.sh \ --config configs/rp_v2.0.conf \ --dump_id "2022-49" \ --input_base_uri "file:///path/to/data/root" \ --output_dir "/path/to/output" \ --similarity "<similarity_threshold>" \ --listings "/minhash/listings/file.txt" \ --max_docs -1

该实现基于polars,并已在一台具有500G RAM的64核机器上使用2亿个文档进行了测试。

质量信号摘要

管道的第二步计算以下一组质量信号。我们希望随着更多信号的开发,这个列表会随时间不断增长。

质量注释

标注标签描述类别参考文献
ccnet_bucket困惑度分数的头部、中部或尾部桶CCNetCCNet
ccnet_language_score语言识别模型的分数CCNetCCNet
ccnet_length字符数CCNetCCNet
ccnet_nlines行数CCNetCCNet
ccnet_original_length文档内行去重前的字符数CCNetCCNet
ccnet_original_nlines文档内行去重前的行数CCNetCCNet
ccnet_perplexity在维基百科上训练的语言模型的困惑度CCNetCCNet
rps_doc_books_importance给定在图书上训练的{1,2}词组模型p和在源域上训练的模型q,这是p(doc)/q(doc)比率的对数机器学习启发式重要性重采样 (Xie et al.)
rps_doc_openwebtext_importance给定在OpenWebText上训练的{1,2}词组模型p和在源域上训练的模型q,这是p(doc)/q(doc)比率的对数机器学习启发式重要性重采样 (Xie et al.)
rps_doc_wikipedia_importance给定在维基百科文章上训练的{1,2}词组模型p和在源域上训练的模型q,这是p(doc)/q(doc)比率的对数机器学习启发式重要性重采样 (Xie et al.)
rps_doc_ml_wikiref_score文档为维基百科参考文献的Fasttext分类器预测。这是RedPajama-1T数据集中使用的相同Fasttext模型。仅适用于英语数据机器学习启发式LLaMA, RedPajama-1T
rps_doc_ml_palm_score文档为维基百科文章、OpenWebText样本或RedPajama-V1图书的Fasttext分类器预测。仅适用于英语数据机器学习启发式PALM, GLaM
rps_doc_ml_wikipedia_score文档为维基百科文章的Fasttext分类器预测。用于非英语数据机器学习启发式-
rps_doc_curly_bracket原始文本中'{'或'}'出现次数与字符数的比率自然语言C4
rps_doc_frac_all_caps_words内容中仅由大写字母组成的单词比例。基于原始内容自然语言预训练指南
rps_doc_frac_lines_end_with_ellipsis以省略号结尾的行比例,省略号定义为"..."或"…"自然语言RefinedWeb, Gopher
rps_doc_frac_no_alph_words不包含字母字符的单词比例自然语言RefinedWeb, Gopher
rps_doc_lorem_ipsum归一化后内容中"lorem ipsum"出现次数与字符数的比率自然语言C4
rps_doc_mean_word_length归一化后内容中单词的平均长度自然语言RefinedWeb, Gopher
rps_doc_stop_word_fraction文档中停用词数与单词总数的比率。停用词来自stopwords-json仓库自然语言RefinedWeb, Gopher
rps_doc_symbol_to_word_ratio内容中符号与单词的比率。符号定义为"#"、"..."和"…"自然语言RefinedWeb, Gopher
rps_doc_frac_unique_words内容中唯一单词的比例。也称为文本样本的退化度。基于归一化内容计算自然语言预训练指南
rps_doc_unigram_entropy内容的一元分布熵。衡量内容的多样性,使用sum(-x / total * log(x / total))计算,其中sum是在归一化内容中唯一单词计数上进行的自然语言-
rps_doc_word_count归一化后内容中的单词数自然语言RefinedWeb, Gopher
rps_lines_ending_with_terminal_punctution_mark指示一行是否以终止标点符号结尾。终止标点符号定义为以下之一:"."、"!"、"?"、"""自然语言C4
rps_lines_javascript_counts每行中"javascript"一词出现的次数自然语言C4
rps_lines_num_words每行的单词数。基于归一化文本计算自然语言C4 , RefinedWeb
rps_lines_numerical_chars_fraction每行数字字符数与总字符数的比率。基于归一化内容自然语言RefinedWeb
rps_lines_start_with_bulletpoint行是否以项目符号开始。以下Unicode被视为项目符号:\u2022(实心圆点)、\u2023(三角形项目符号)、\u25B6(黑色右指三角形)、\u25C0(黑色左指三角形)、\u25E6(白色圆点)、\u25A0(黑色方块)、\u25A1(白色方块)、\u25AA(小黑方块)、\u25AB(小白方块)、\u2013(短破折号)自然语言RefinedWeb, Gopher
rps_lines_uppercase_letter_fraction每行大写字母数与总字符数的比率。基于原始文本自然语言RefinedWeb
rps_doc_num_sentences内容中的句子数。使用正则表达式r'\b[^.!?]+[.!?]*'计算自然语言C4
rps_doc_frac_chars_dupe_10grams重复的10个单词词组中的字符比例。在小写、去除标点的内容上操作。确保重叠n-gram中的字符只计算一次重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_5grams重复五元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_6grams重复六元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_7grams重复七元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_8grams重复八元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_9grams重复九元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_top_2gram最常见二元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_top_3gram最常见三元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_top_4gram最常见四元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_ldnoobw_words包含在"脏话、下流、淫秽和其他不良词汇列表"黑名单中的词序列数量。该黑名单来自LDNOOBW仓库。毒性C4
rps_doc_ut1_blacklist对应文档域名类别列表的分类ID。类别来自UT1黑名单。该列表来自UT-Capitole毒性RefinedWeb
minhash_signature_0.7文档的分段最小哈希签名,用于Jaccard相似度为0.7的模糊去重。该签名基于128个哈希函数,并分为14个段和9行用于LSH。去重
minhash_signature_0.8文档的分段最小哈希签名,用于Jaccard相似度为0.8的模糊去重。该签名基于128个哈希函数,并分为9个段和13行用于LSH。去重
minhash_signature_0.9文档的分段最小哈希签名,用于Jaccard相似度为0.9的模糊去重。该签名基于128个哈希函数,并分为5个段和25行用于LSH。去重
minhash_signature_1.0文档的分段最小哈希签名,用于Jaccard相似度为1.0的模糊去重。该签名基于128个哈希函数,并分为1个段和128行用于LSH。去重

致谢

我们感谢众多合作伙伴和协作者,他们共同推动了开放大语言模型的前沿发展。

  • 感谢AI2的OLMo团队和OpenGPT-X的朋友们就数据集和数据质量进行的富有洞察力的讨论!同时也感谢所有基于RedPajama数据集进行开发的人,包括Cerebras的SlimPajama项目,以及开源AI社区迄今为止基于RedPajama构建的500多个模型。
  • 我们感谢EleutherAI的优秀团队,他们在开放训练数据集方面开辟了道路,创建了The Pile数据集,并开源了我们用于训练部分RedPajama模型的代码。
  • 感谢我们RedPajama-v1的合作伙伴,包括Ontocord.ai、MILA魁北克AI研究所、ETH DS3Lab、蒙特利尔大学、斯坦福基础模型研究中心(CRFM)、斯坦福Hazy Research研究组和LAION。

许可证

版权所有 2023 Together Computer

根据Apache许可证2.0版("许可证")授权;
除非遵守许可证,否则您不得使用此文件。
您可以在以下网址获取许可证副本:

   http://www.apache.org/licenses/LICENSE-2.0

除非适用法律要求或书面同意,根据许可证分发的软件是基于
"按原样"分发的,不附带任何明示或暗示的担保或条件。
有关许可证下的特定语言管理权限和限制,请参阅许可证。

有关完整条款,请参阅LICENSE文件。如果您对许可有任何问题、意见或疑虑,请联系我们

对于数据集本身,请参阅Common Crawl基金会使用条款

引用RedPajama时,请使用:

@software{together2023redpajama,
  author = {Together Computer},
  title = {RedPajama: an Open Dataset for Training Large Language Models},
  month = October,
  year = 2023,
  url = {https://github.com/togethercomputer/RedPajama-Data}
}

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多