data_management_LLM

data_management_LLM

大型语言模型训练数据管理资源汇总

该项目汇总了大型语言模型训练数据管理的相关资源。内容涵盖预训练和监督微调阶段,探讨领域组成、数据数量和质量等关键方面。项目还收录了数据去重、毒性过滤等技术,以及不同因素间的关系研究。这些资源为优化LLM训练数据管理提供了全面参考。

大语言模型训练数据管理预训练监督微调数据质量Github开源项目

大语言模型训练的数据管理

这是一个精心策划的大语言模型训练数据管理资源列表。论文按照我们的综述论文《大语言模型训练数据管理:一项调查》进行组织。

目录

预训练

领域组成

  • Lamda:对话应用的语言模型(Arxiv,2022年1月)[论文] [代码]
  • 通过重要性重采样进行语言模型的数据选择(Arxiv,2023年2月)[论文] [代码]
  • CodeGen2:编程和自然语言大语言模型训练的经验教训(ICLR 2023)[论文] [模型]
  • DoReMi:优化数据混合加速语言模型预训练(Arxiv,2023年5月)[论文] [代码]
  • 预训练者训练数据指南:测量数据年龄、领域覆盖、质量和毒性的影响(Arxiv,2023年5月)[论文]
  • SlimPajama-DC:理解大语言模型训练的数据组合(Arxiv,2023年9月)[论文] [模型] [数据集]
  • DoGE:基于泛化估计的领域重加权(Arxiv,2023年10月)[论文] [代码]
  • 数据混合法则:通过预测语言建模性能优化数据混合(Arxiv,2024年3月)[论文] [代码]
  • Sheared LLaMA:通过结构化剪枝加速语言模型预训练(ICLR 2024)[论文] [代码]

数据数量

  • 缩放法则

    • 神经语言模型的缩放法则(Arxiv,2020年1月)[论文]
    • 计算最优大语言模型训练的实证分析(NeurIPS 2022)[论文]
    • 揭开缩放法则之谜:第一部分(Arxiv,2024年3月)[论文]
  • 数据重复

    • 重复数据学习的缩放法则和可解释性(Arxiv,2022年5月)[论文]
    • 我们会用完数据吗?机器学习数据集缩放极限分析(Arxiv,2022年10月)[论文]
    • 扩展数据受限的语言模型(Arxiv,2023年5月)[论文] [代码]
    • 重复还是不重复:从令牌危机下扩展大语言模型获得的见解(Arxiv,2023年5月)[论文]
    • D4:通过文档去重和多样化改进大语言模型预训练(Arxiv,2023年8月)[论文]

数据质量

  • 质量过滤

  • 文本数据质量过滤的实证探索(Arxiv,2021年9月)[论文]

  • 一瞥质量:对网络爬取的多语言数据集的审计(ACL 2022)[论文]

  • MiniPile挑战:面向数据高效语言模型(Arxiv,2023年4月)[论文] [数据集]

  • 预训练者训练数据指南:测量数据年龄、领域覆盖、质量和毒性的影响(Arxiv,2023年5月)[论文]

  • 教科书就是你所需要的全部(Arxiv,2023年6月)[论文] [代码]

  • Falcon LLM的RefinedWeb数据集:仅使用网络数据超越精选语料库(NeurIPS 2023)[论文] [数据集]

  • 教科书就是你所需要的全部 II:phi-1.5技术报告(Arxiv,2023年9月)[论文] [模型]

  • 少即是多:调查大规模预训练LLMs的数据修剪(Arxiv,2023年9月)[论文]

  • Ziya2:以数据为中心的学习是LLMs所需的全部(Arxiv,2023年11月)[论文] [模型]

  • Phi-2:小型语言模型的惊人能力(博客文章,2023年12月)[文章]

  • QuRating:为语言模型训练选择高质量数据(ICML 2024)[论文] [代码]

  • 去重

    • 去重训练数据使语言模型更好(ACL 2022)[论文] [代码]
    • 去重训练数据缓解语言模型的隐私风险(ICML 2022)[论文]
    • 大规模噪声鲁棒去重(ICLR 2022)[论文]
    • SemDeDup:通过语义去重实现网络规模的数据高效学习(Arxiv,2023年3月)[论文] [代码]
  • 毒性过滤

    • 去毒化语言模型存在边缘化少数群体声音的风险(NAACL-HLT,2021)[论文] [代码]
    • 去毒化语言模型的挑战(EMNLP Findings,2021)[论文]
    • 盒子里有什么?对Common Crawl语料库中不良内容的初步分析(Arxiv,2021年5月)[论文] [代码]
    • 预训练者训练数据指南:测量数据年龄、领域覆盖、质量和毒性的影响(Arxiv,2023年5月)[论文]
  • 多样性和年龄

    • 超越规模:多样性系数作为数据质量指标表明LLMs在形式多样的数据上进行预训练(Arxiv,2023年6月)[论文]
    • D2修剪:用于平衡数据修剪中多样性和难度的消息传递(Arxiv,2023年10月)[论文] [代码]
    • 预训练者训练数据指南:测量数据年龄、领域覆盖、质量和毒性的影响(Arxiv,2023年5月)[论文]
  • *社会偏见

    • 记录大型网络文本语料库:以Colossal Clean Crawled Corpus为例的案例研究(EMNLP 2021)[论文]
    • 预训练语言模型去偏技术有效性的实证调查(ACL,2022)[论文] [代码]
    • 谁的语言被视为高质量?测量文本数据选择中的语言意识形态(EMNLP,2022)[论文] [代码]
    • 从预训练数据到语言模型再到下游任务:追踪导致不公平NLP模型的政治偏见轨迹(ACL 2023)[论文] [代码]
  • *幻觉

    • 预训练语言模型如何捕捉事实知识?因果启发的分析(ACL 2022)[论文]
    • 对话模型中幻觉的起源:是数据集还是模型的问题?(NAACL 2022)[论文]
    • 大型语言模型在推理任务中产生幻觉的来源(EMNLP Findings,2023)(https://arxiv.org/abs/2305.14552)

不同方面之间的关系

  • 训练者指南:衡量数据年龄、领域覆盖、质量和毒性对训练数据的影响(Arxiv,2023年5月)[论文]
  • SlimPajama-DC:理解大语言模型训练中的数据组合(Arxiv,2023年9月)[论文] [模型] [数据集]
  • DeepSeek LLM:以长期主义扩展开源语言模型(Arxiv,2024年1月)[论文] [模型]
  • 数据过滤的扩展定律 -- 数据整理不能忽视计算(CVPR 2024)[论文] [代码]
  • 高效的数据混合:语言模型预训练的二元扩展定律(Arxiv,2024年5月)[论文]

有监督微调

任务组合

  • 超自然指令:通过1600多个任务的声明性指令实现泛化(EMNLP 2022)[论文] [数据集]
  • 微调的语言模型是零样本学习器(ICLR 2022)[论文] [数据集]
  • 多任务提示训练实现零样本任务泛化(ICLR 2022)[论文] [代码]
  • 扩展指令微调的语言模型(Arxiv,2022年10月)[论文] [数据集]
  • OPT-IML:通过泛化视角扩展语言模型指令元学习(Arxiv,2022年12月)[论文] [模型]
  • Flan集合:为有效指令调优设计数据和方法(ICML,2023)[论文] [数据集]
  • 探索训练专家语言模型相对于指令调优的优势(ICML,2023)[论文] [代码]
  • 使用跨任务最近邻的数据高效微调(ACL Findings,2023)[论文] [代码]
  • 可能只需0.5%的数据:低训练数据指令调优的初步探索(Arxiv,2023年5月)[论文]
  • 骆驼能走多远?探索开放资源上指令调优的现状(Arxiv,2023年6月)[论文] [代码]
  • 有监督微调数据组成如何影响大语言模型的能力(Arxiv,2023年10月)[论文]
  • LESS:为目标指令调优选择有影响力的数据(Arxiv,2024年2月)[论文] [代码]
  • 指令很重要,一种简单而有效的特定任务指令调优任务选择方法(Arxiv,2024年4月)[论文]

数据质量

  • 指令质量

  • 自我优化:通过自我反馈进行迭代改进(Arxiv,2023年3月)[论文][项目]

  • Lima:对齐中更少即是更多(Arxiv,2023年5月)[论文] [数据集]

  • 通过扩展高质量指令对话来增强聊天语言模型(Arxiv,2023年5月)[论文] [代码]

  • SelFee:由自我反馈生成赋能的迭代自我修正大语言模型(博客文章,2023年5月)[项目]

  • INSTRUCTEVAL:面向指令调整大语言模型的全面评估(Arxiv,2023年6月)[论文] [代码]

  • 指令挖掘:大语言模型的高质量指令数据选择(Arxiv,2023年7月)[论文] [代码]

  • AlpaGasus:用更少的数据训练更好的Alpaca(Arxiv,2023年7月)[论文]

  • 利用大卫对抗歌利亚的力量:探索不使用闭源模型的指令数据生成(Arxiv,2023年8月)[论文]

  • 通过指令反向翻译实现自我对齐(Arxiv,2023年8月)[论文]

  • SELF:大语言模型的语言驱动自我进化(Arxiv,2023年10月)[论文]

  • LoBaSS:衡量监督微调数据的可学习性(Arxiv,2023年10月)[论文]

  • Tuna:使用大语言模型反馈进行指令调优(EMNLP 2023)[论文] [代码]

  • 开源大语言模型指令调优的自动指令优化(Arxiv,2023年11月)[论文] [代码]

  • MoDS:指令调优的面向模型数据选择(Arxiv,2023年11月)[论文] [代码]

  • 一次性学习作为大语言模型的指令数据勘探者(Arxiv,2023年12月)[论文]

  • 大语言模型标签高效监督微调的实验设计框架(Arxiv,2024年1月)[论文]

  • 超级过滤:快速指令调优的弱到强数据过滤(Arxiv,2024年2月)[论文] [代码]

  • SelectIT:通过不确定性感知自我反思进行大语言模型的选择性指令调优(Arxiv,2024年2月)[论文] [代码]

  • 从数量到质量:通过自我引导数据选择提升大语言模型指令调优性能(NAACL 2024)[论文] [代码]

  • 选择性反思调优:大语言模型指令调优的学生选择数据回收(ACL Findings 2024)[论文] [代码]

  • 小型语言模型能够为大型语言模型选择指令调优训练数据(Arxiv,2024年2月)[论文]

  • 小到大(S2L):通过总结小模型训练轨迹实现大语言模型微调的可扩展数据选择(Arxiv,2024年3月)[论文]

  • 用于稳健语言模型微调的自动化数据策划(Arxiv,2024年3月)[论文]

  • SHED:基于Shapley值的指令微调自动化数据集优化(Arxiv,2024年5月)[论文]

  • 指令多样性

  • 自我指导:通过自生成指令对齐语言模型(ACL 2023)[论文][代码]

    • 斯坦福 Alpaca(2023年3月)[代码]
    • 通过扩展高质量指令对话来增强聊天语言模型(Arxiv,2023年5月)[论文] [代码]
    • Lima:对齐时少即是多(Arxiv,2023年5月)[论文] [数据集]
    • #InsTag:指令标记用于分析大型语言模型的监督微调(Arxiv,2023年8月)[论文] [代码]
    • 探索-指导:通过主动探索增强特定领域的指令覆盖(Arxiv,2023年10月)[论文] [代码]
    • DiffTune:基于扩散的多样化指令调优数据生成方法(NeurIPS 2023)[论文]
    • 自演化多样数据采样以实现高效指令调优(Arxiv,2023年11月)[论文] [代码]
    • 数据多样性对稳健指令调优至关重要(Arxiv,2023年11月)[论文]
    • 聚类与排序:通过专家对齐质量估计实现多样性保留的指令选择(Arxiv,2024年2月)[论文] [代码]
    • 大型语言模型指令挖掘的多视图融合(信息融合,2024年10月)[论文]
  • 指令复杂性

    • WizardLM:赋予大型语言模型执行复杂指令的能力(Arxiv,2023年4月)[论文] [代码]
    • WizardCoder:用Evol-Instruct增强代码大型语言模型(Arxiv,2023年6月)[论文] [代码]
    • Orca:从GPT-4的复杂解释轨迹中渐进学习(Arxiv,2023年6月)[论文] [代码]
    • 复杂性和对齐之间内在关系的初步研究(Arxiv,2023年8月)[论文]
    • #InsTag:指令标记用于分析大型语言模型的监督微调(Arxiv,2023年8月)[论文] [代码]
    • 大型语言模型能否理解真实世界的复杂指令?(Arxiv,2023年9月)[论文] [基准]
    • Followbench:大型语言模型的多层次细粒度约束遵循基准(Arxiv,2023年10月)[论文] [代码]
    • Conifer:提高大型语言模型复杂约束指令遵循能力(Arxiv,2024年2月)[论文] [代码]
    • 从复杂到简单:增强大型语言模型的多约束复杂指令遵循能力(Arxiv,2024年4月)[论文] [代码]
  • *提示设计

  • 重新构建指令提示以适应gptk的语言(ACL Findings, 2022)[论文] [代码]

  • 提示偏差:连续提示离散化解释的奇特案例(NAACL, 2022)[论文] [代码]

  • 通过困惑度估计揭示语言模型中的提示(Arxiv, 2022年12月)[论文]

  • 你读了说明了吗?重新思考任务定义在指令学习中的有效性(ACL, 2023)[论文] [代码]

  • 模型真的学会了遵循指令吗?指令调优的实证研究(ACL, 2023)[论文]

  • 模仿专有大语言模型的虚假承诺(Arxiv, 2023年5月)[论文]

  • 探索指令调优的格式一致性(Arxiv, 2023年7月)[论文]

  • 注意指令:基于提示学习的一致性和交互的全面评估(Arxiv, 2023年10月)[论文]

  • 指令调优的动态:大语言模型的每种能力都有自己的成长速度(Arxiv, 2023年10月)[论文]

  • *幻觉

    • Lima:对齐中少即是多(Arxiv, 2023年5月)[论文] [数据集]
    • AlpaGasus:用更少的数据训练更好的Alpaca(Arxiv, 2023年7月)[论文]
    • 指令挖掘:大语言模型的高质量指令数据选择(Arxiv, 2023年7月)[论文] [代码]
    • Platypus:快速、廉价且强大的大语言模型优化(NeurIPS 2023 Workshop)[论文] [代码]

数据数量

  • 探索指令数据规模对大语言模型的影响:基于真实用例的实证研究(Arxiv, 2023年3月)[论文]
  • Lima:对齐中少即是多(Arxiv, 2023年5月)[论文] [数据集]
  • 也许只需0.5%的数据:低训练数据指令调优的初步探索(Arxiv, 2023年5月)[论文]
  • 大语言模型学习数学推理的缩放关系(Arxiv, 2023年8月)[论文] [代码]
  • 监督微调数据组成如何影响大语言模型的能力(Arxiv, 2023年10月)[论文]
  • 指令调优的动态:大语言模型的每种能力都有自己的成长速度(Arxiv, 2023年10月)[论文]
  • 当扩展遇到大语言模型微调:数据、模型和微调方法的影响(ICLR 2024)[论文]

动态数据高效学习

  • 训练影响数据

    • 数据节食下的自然语言理解:NLP分类任务的动态数据子集选择(SustaiNLP, 2023)[论文]
    • 成为自我指导:为最小指令调优引入早停标准(Arxiv, 2023年7月)[论文]
    • 主动指令调优:通过训练提示敏感任务改善跨任务泛化能力(EMNLP 2023)[论文] [代码]
  • 数据影响训练

    • Dynosaur:指令调优数据策划的动态增长范式(Arxiv, 2023年5月)[论文] [代码]
    • OpenChat:利用混合质量数据推进开源语言模型(Arxiv, 2023年9月)[论文] [代码]
    • 监督微调数据组成如何影响大语言模型的能力(Arxiv, 2023年10月)[论文]
    • 基于数据课程的大语言模型对比后训练(Arxiv, 2023年10月)[论文]
    • InsCL:一种用于大语言模型指令微调的数据高效持续学习范式(NAACL 2024)[论文]
    • Conifer:改善大语言模型复杂约束指令遵循能力(Arxiv, 2024年2月)[论文] [代码]
    • 策略性数据排序:通过课程学习增强大语言模型性能(Arxiv, 2024年5月)[论文]

不同方面之间的关系

  • #InsTag:用于分析大型语言模型监督微调的指令标注(ArXiv,2023年8月)[论文] [代码]
  • 数据多样性对稳健指令微调至关重要(ArXiv,2023年11月)[论文]
  • 重新思考指令质量:LIFT就是你所需要的(ArXiv,2023年12月)[论文]

有用资源

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

热门AI工具AI办公办公工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

模型训练热门AI工具内容创作智能问答AI开发讯飞星火大模型多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多