RedPajama-Data

RedPajama-Data

开放大规模多语言数据集助力大型语言模型训练

RedPajama-Data-v2是一个包含30万亿tokens的开放数据集,用于训练大型语言模型。该数据集涵盖了超过100B的文本文档,来源于84个CommonCrawl快照。它包含英语、德语、法语、意大利语和西班牙语5种语言的内容,并提供多种质量信号和去重处理。项目提供完整的数据处理流程,包括准备工件、计算质量信号和去重等步骤,为语言模型研究提供高质量的大规模语料资源。

RedPajama-Data-v2大语言模型开放数据集自然语言处理数据质量Github开源项目

RedPajama-Data-v2:一个包含30万亿个标记的开放数据集,用于训练大型语言模型

<img width="500" src="https://yellow-cdn.veclightyear.com/835a84d5/b3a6daf7-c147-4f97-a022-009b56bda72c.png" />

本仓库包含RedPajama-V2数据集的代码。有关该数据集的更多信息,请查看我们的博客文章。该数据集也可在HuggingFace上获取。关于RedPajama-1T数据集使用的代码,请参考本仓库的rp_v1分支。

数据集

RedPajama-V2是一个用于训练大型语言模型的开放数据集。该数据集包含来自84个CommonCrawl快照的超过1000亿个文本文档,使用CCNet管道进行处理。其中,语料库中有300亿个文档附带质量信号,200亿个文档经过了去重处理。

数据集带注释和去重的head_middle部分的文档和标记数量

下表显示了数据集带注释和去重的head_middle部分的文档数量和标记数量。

文档数量估计标记数量(去重后)
英语145亿20.5万亿
德语19亿3.0万亿
法语16亿2.7万亿
西班牙语18亿2.8万亿
意大利语9亿1.5万亿
总计208亿30.4万亿

语言

英语、德语、法语、意大利语、西班牙语

设置

配置

configs/rp_v2.0.conf文件复制到如configs/default.conf,并配置环境变量。这些变量将在整个管道中使用。

构建Docker镜像

要使用docker运行,请使用以下命令构建docker镜像:

. configs/default.conf cd app docker build -t "${DOCKER_REPO}:" .

另外,请确保您已安装s5cmd并配置了S3配置文件,以便从S3存储桶拉取数据。

您可以在非容器化环境中运行管道的各个步骤。但是,运行脚本假定您已安装docker和apptainer。

运行管道

该管道由三个步骤组成,分别是1)准备制品,2)计算质量信号,以及3)去重。

**重要提示:**如果您不使用提供的脚本(即使用提供的Dockerfile构建的docker容器)运行步骤(1)和(2),请确保使用以下命令将PYTHONHASHSEED环境变量设置为一个一致的值(例如42):

export PYTHONHASHSEED=42

这是为了确保用于计算DSIR权重的哈希函数的一致性。

1. 创建制品

管道的这一部分创建后续步骤中使用的制品。这包括构建质量分类器、训练用于重要性权重计算的n-gram生成模型、从LDNOOBW仓库获取不良词列表,以及从UT1黑名单获取最新的黑名单URL列表。

首先,从这里下载英语维基百科参考分类器,并将其放在${DATA_ROOT}/wikiref-model/en/en-model.bin中。这与RedPajama-V1中使用的fasttext分类器相同。

要创建其余制品,请确保在配置文件中设置了环境变量。然后,从仓库的根目录运行:

bash scripts/run_prep_artifacts.sh \ --config configs/rp_v2.0.conf \ --listings /path/to/listings/file.txt\ --max_workers 32

其中/path/to/listings/file.txt是包含要处理的ccnet数据键的文件(例如2023-06/0000/en_head.json.gz)。

您可以将max_workers标志设置为要使用的并行进程数。

此步骤将生成一个ID,您可以将其存储在环境变量ARTIFACTS_ID中,以供下一步使用。

2. 计算质量信号

管道的第二步计算质量信号,包括用于后续步骤中进行模糊去重的最小哈希签名。要运行此步骤,请确保在配置文件中设置了环境变量。然后,从仓库的根目录运行:

bash scripts/apptainer_run_quality_signals.sh \ --config configs/rp_v2.0.conf \ --dump_id "2022-49" \ --input_base_uri "file:///path/to/data/root" \ --output_base_uri "file:///path/to/outout/data/root" \ --max_docs -1

3. 去重

管道的第三个组件包括去重步骤。这里我们提供代码来运行精确和模糊去重。

使用布隆过滤器进行精确去重

基于内容的去重在app/src/bloomfilter.py中实现。它可以独立于前一步骤运行,但数据需要存储在S3存储桶中。对于这一步骤,从app目录运行:

python3 app/src/bloomfilter.py \ --listings /path/to/listings/file.txt \ --input_base_uri "s3://path/to/ccnet/data" \ --output_dir "/path/to/output" \ --s3_profile "..." \ --endpoint_url "..." \ --parallel_readers 32 \ --batch_size 10 \ --capacity "..." \ --error_rate "..."

选择正确的容量(即>文档数)很重要,否则无法保证error_rate,并且会出现更多假阳性。该实现基于pybloomfiltermmap3库。

使用局部敏感哈希进行模糊去重

在管道的第三步中,我们对第一步生成的最小哈希签名运行局部敏感哈希。要运行此步骤,请确保使用与质量信号步骤相同的配置。然后,从仓库的根目录运行:

bash scripts/apptainer_run_lsh.sh \ --config configs/rp_v2.0.conf \ --dump_id "2022-49" \ --input_base_uri "file:///path/to/data/root" \ --output_dir "/path/to/output" \ --similarity "<similarity_threshold>" \ --listings "/minhash/listings/file.txt" \ --max_docs -1

该实现基于polars,并已在一台具有500G RAM的64核机器上使用2亿个文档进行了测试。

质量信号摘要

管道的第二步计算以下一组质量信号。我们希望随着更多信号的开发,这个列表会随时间不断增长。

质量注释

标注标签描述类别参考文献
ccnet_bucket困惑度分数的头部、中部或尾部桶CCNetCCNet
ccnet_language_score语言识别模型的分数CCNetCCNet
ccnet_length字符数CCNetCCNet
ccnet_nlines行数CCNetCCNet
ccnet_original_length文档内行去重前的字符数CCNetCCNet
ccnet_original_nlines文档内行去重前的行数CCNetCCNet
ccnet_perplexity在维基百科上训练的语言模型的困惑度CCNetCCNet
rps_doc_books_importance给定在图书上训练的{1,2}词组模型p和在源域上训练的模型q,这是p(doc)/q(doc)比率的对数机器学习启发式重要性重采样 (Xie et al.)
rps_doc_openwebtext_importance给定在OpenWebText上训练的{1,2}词组模型p和在源域上训练的模型q,这是p(doc)/q(doc)比率的对数机器学习启发式重要性重采样 (Xie et al.)
rps_doc_wikipedia_importance给定在维基百科文章上训练的{1,2}词组模型p和在源域上训练的模型q,这是p(doc)/q(doc)比率的对数机器学习启发式重要性重采样 (Xie et al.)
rps_doc_ml_wikiref_score文档为维基百科参考文献的Fasttext分类器预测。这是RedPajama-1T数据集中使用的相同Fasttext模型。仅适用于英语数据机器学习启发式LLaMA, RedPajama-1T
rps_doc_ml_palm_score文档为维基百科文章、OpenWebText样本或RedPajama-V1图书的Fasttext分类器预测。仅适用于英语数据机器学习启发式PALM, GLaM
rps_doc_ml_wikipedia_score文档为维基百科文章的Fasttext分类器预测。用于非英语数据机器学习启发式-
rps_doc_curly_bracket原始文本中'{'或'}'出现次数与字符数的比率自然语言C4
rps_doc_frac_all_caps_words内容中仅由大写字母组成的单词比例。基于原始内容自然语言预训练指南
rps_doc_frac_lines_end_with_ellipsis以省略号结尾的行比例,省略号定义为"..."或"…"自然语言RefinedWeb, Gopher
rps_doc_frac_no_alph_words不包含字母字符的单词比例自然语言RefinedWeb, Gopher
rps_doc_lorem_ipsum归一化后内容中"lorem ipsum"出现次数与字符数的比率自然语言C4
rps_doc_mean_word_length归一化后内容中单词的平均长度自然语言RefinedWeb, Gopher
rps_doc_stop_word_fraction文档中停用词数与单词总数的比率。停用词来自stopwords-json仓库自然语言RefinedWeb, Gopher
rps_doc_symbol_to_word_ratio内容中符号与单词的比率。符号定义为"#"、"..."和"…"自然语言RefinedWeb, Gopher
rps_doc_frac_unique_words内容中唯一单词的比例。也称为文本样本的退化度。基于归一化内容计算自然语言预训练指南
rps_doc_unigram_entropy内容的一元分布熵。衡量内容的多样性,使用sum(-x / total * log(x / total))计算,其中sum是在归一化内容中唯一单词计数上进行的自然语言-
rps_doc_word_count归一化后内容中的单词数自然语言RefinedWeb, Gopher
rps_lines_ending_with_terminal_punctution_mark指示一行是否以终止标点符号结尾。终止标点符号定义为以下之一:"."、"!"、"?"、"""自然语言C4
rps_lines_javascript_counts每行中"javascript"一词出现的次数自然语言C4
rps_lines_num_words每行的单词数。基于归一化文本计算自然语言C4 , RefinedWeb
rps_lines_numerical_chars_fraction每行数字字符数与总字符数的比率。基于归一化内容自然语言RefinedWeb
rps_lines_start_with_bulletpoint行是否以项目符号开始。以下Unicode被视为项目符号:\u2022(实心圆点)、\u2023(三角形项目符号)、\u25B6(黑色右指三角形)、\u25C0(黑色左指三角形)、\u25E6(白色圆点)、\u25A0(黑色方块)、\u25A1(白色方块)、\u25AA(小黑方块)、\u25AB(小白方块)、\u2013(短破折号)自然语言RefinedWeb, Gopher
rps_lines_uppercase_letter_fraction每行大写字母数与总字符数的比率。基于原始文本自然语言RefinedWeb
rps_doc_num_sentences内容中的句子数。使用正则表达式r'\b[^.!?]+[.!?]*'计算自然语言C4
rps_doc_frac_chars_dupe_10grams重复的10个单词词组中的字符比例。在小写、去除标点的内容上操作。确保重叠n-gram中的字符只计算一次重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_5grams重复五元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_6grams重复六元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_7grams重复七元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_8grams重复八元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_9grams重复九元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_top_2gram最常见二元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_top_3gram最常见三元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_top_4gram最常见四元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_ldnoobw_words包含在"脏话、下流、淫秽和其他不良词汇列表"黑名单中的词序列数量。该黑名单来自LDNOOBW仓库。毒性C4
rps_doc_ut1_blacklist对应文档域名类别列表的分类ID。类别来自UT1黑名单。该列表来自UT-Capitole毒性RefinedWeb
minhash_signature_0.7文档的分段最小哈希签名,用于Jaccard相似度为0.7的模糊去重。该签名基于128个哈希函数,并分为14个段和9行用于LSH。去重
minhash_signature_0.8文档的分段最小哈希签名,用于Jaccard相似度为0.8的模糊去重。该签名基于128个哈希函数,并分为9个段和13行用于LSH。去重
minhash_signature_0.9文档的分段最小哈希签名,用于Jaccard相似度为0.9的模糊去重。该签名基于128个哈希函数,并分为5个段和25行用于LSH。去重
minhash_signature_1.0文档的分段最小哈希签名,用于Jaccard相似度为1.0的模糊去重。该签名基于128个哈希函数,并分为1个段和128行用于LSH。去重

致谢

我们感谢众多合作伙伴和协作者,他们共同推动了开放大语言模型的前沿发展。

  • 感谢AI2的OLMo团队和OpenGPT-X的朋友们就数据集和数据质量进行的富有洞察力的讨论!同时也感谢所有基于RedPajama数据集进行开发的人,包括Cerebras的SlimPajama项目,以及开源AI社区迄今为止基于RedPajama构建的500多个模型。
  • 我们感谢EleutherAI的优秀团队,他们在开放训练数据集方面开辟了道路,创建了The Pile数据集,并开源了我们用于训练部分RedPajama模型的代码。
  • 感谢我们RedPajama-v1的合作伙伴,包括Ontocord.ai、MILA魁北克AI研究所、ETH DS3Lab、蒙特利尔大学、斯坦福基础模型研究中心(CRFM)、斯坦福Hazy Research研究组和LAION。

许可证

版权所有 2023 Together Computer

根据Apache许可证2.0版("许可证")授权;
除非遵守许可证,否则您不得使用此文件。
您可以在以下网址获取许可证副本:

   http://www.apache.org/licenses/LICENSE-2.0

除非适用法律要求或书面同意,根据许可证分发的软件是基于
"按原样"分发的,不附带任何明示或暗示的担保或条件。
有关许可证下的特定语言管理权限和限制,请参阅许可证。

有关完整条款,请参阅LICENSE文件。如果您对许可有任何问题、意见或疑虑,请联系我们

对于数据集本身,请参阅Common Crawl基金会使用条款

引用RedPajama时,请使用:

@software{together2023redpajama,
  author = {Together Computer},
  title = {RedPajama: an Open Dataset for Training Large Language Models},
  month = October,
  year = 2023,
  url = {https://github.com/togethercomputer/RedPajama-Data}
}

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多