TACO

TACO

推动算法代码生成模型发展的新基准数据集

TACO是一个大规模算法代码生成数据集,包含25,443个训练问题和1,000个测试问题。它提供具挑战性的编程竞赛题目,旨在提升代码生成模型的实际应用能力。TACO的特点包括规模大、质量高的问题-解答对,以及细粒度的任务主题、算法、技能和难度标签。这些特性为代码生成模型的训练和评估提供了精确参考,有助于推动相关研究和应用的进展。

TACO代码生成算法数据集模型评估Github开源项目
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/fe26da2b-5927-4146-a558-a9ae423caeb7.png" width="200" height="200"> </p>

TACO(算法代码生成数据集)

<p align="center"> 🤗 <a href="https://huggingface.co/datasets/BAAI/TACO">Hugging Face</a>&nbsp&nbsp | &nbsp&nbsp <a href="https://data.baai.ac.cn/details/BAAI-TACO"><img src="https://yellow-cdn.veclightyear.com/835a84d5/0400f709-cb21-4412-bc62-3a91ff3a2547.png" width="18"/> BAAI数据中心</a>&nbsp&nbsp | &nbsp&nbsp <a href="https://arxiv.org/abs/2312.14852">论文</a> </p> <br>

TACO (算法代码生成数据集) 是一个专注于算法代码生成的数据集,旨在为代码生成模型领域提供更具挑战性的训练数据集和评估基准。该数据集由更加困难且更贴近实际编程场景的编程竞赛问题组成。它强调在实际应用场景中提高或评估模型的理解和推理能力,而不仅仅是实现预定义的功能。

  • 规模更大:TACO包含训练集(25,443个问题)和测试集(1,000个问题),是目前最大的代码生成数据集。
  • 质量更高:TACO数据集中的每个问题都设计匹配多样化的解答,解答规模高达1.55M。这确保了模型在训练过程中不易过拟合,并验证了评估结果的有效性。
  • 标签更细致:TACO数据集中的每个问题都包含细粒度的标签,如任务主题、算法、技能和难度级别。这些标签为代码生成模型的训练和评估提供了更准确的参考。

新闻和更新

  • 🚀🚀🚀[2024/06/19] 宣布测试框架更新:修复错误并增强功能! 我们很高兴宣布在大量人工验证和调试努力后发布我们的第一个版本。在此更新中,我们解决了引用的APPS基准测试框架中的几个错误。我们重新检查了测试用例,并将TACO测试集更新到新版本。

    有关修复的详细信息可以在这里找到。

  • 🔥🔥🔥[2024/04/11] 宣布在Hugging Face上发布部分TACO(算法代码主题)项目模型! 我们对顶级代码模型如CodeLlama和Starcoder进行了全面微调,参数范围从1B到15B,专门针对竞争性算法挑战进行了定制。查看我们在Hugging Face上的FlagOpen下的模型。加入我们,推进代码和LLM社区的发展!🏋️‍♂️👩‍💻

下载和使用

🤗 <a href="https://huggingface.co/datasets/BAAI/TACO">Hugging Face</a>

首先,安装datasets包。

pip install -U datasets

然后,使用以下程序加载数据集。

from datasets import load_dataset taco = load_dataset('BAAI/TACO', token=YOUR_HF_TOKEN)
  • 您还可以通过以下方式指定拆分("train"或"test")
    from datasets import load_dataset taco = load_dataset('BAAI/TACO', split='train', token=YOUR_HF_TOKEN)
  • 您还可以通过传递难度列表(从["EASY", "MEDIUM", "MEDIUM_HARD", "HARD", "VERY_HARD"]中选择,或默认为["ALL"])或技能列表(从["Data structures", "Sorting", "Range queries", "Complete search", "Amortized analysis", "Dynamic programming", "Bit manipulation", "Greedy algorithms"]中选择,或默认为["ALL"])来指定难度或技能。
    from datasets import load_dataset taco_difficulties = load_dataset('BAAI/TACO', difficulties=['EASY'], token=YOUR_HF_TOKEN)
    from datasets import load_dataset taco_skills = load_dataset('BAAI/TACO', skills=['Sorting', 'Range queries'], token=YOUR_HF_TOKEN)

<img src="https://yellow-cdn.veclightyear.com/835a84d5/0400f709-cb21-4412-bc62-3a91ff3a2547.png" width="18"/><a href="https://data.baai.ac.cn/details/BAAI-TACO">BAAI数据中心</a> 首先,下载数据集并解压到名为"BAAI-TACO"的文件夹中。 然后,使用以下程序加载数据集。

from datasets import load_from_disk taco = load_from_disk(PATH_TO_BAAI-TACO)
  • 您还可以通过以下方式指定拆分("train"或"test")
    from datasets import load_from_disk taco = load_from_disk(PATH_TO_BAAI-TACO)['train']
  • 您还可以通过传递难度列表(从["EASY", "MEDIUM", "MEDIUM_HARD", "HARD", "VERY_HARD"]中选择,或默认为["ALL"])或技能列表(从["Data structures", "Sorting", "Range queries", "Complete search", "Amortized analysis", "Dynamic programming", "Bit manipulation", "Greedy algorithms"]中选择,或默认为["ALL"])来指定难度或技能。
    from datasets import load_from_disk difficulties=['EASY'] taco = load_from_disk(PATH_TO_BAAI-TACO) taco_difficulties = taco.filter(lambda entry: entry['difficulty'] in difficulties)
    from datasets import load_from_disk skills=set(['Sorting', 'Range queries']) taco = load_from_disk(PATH_TO_BAAI-TACO) taco_skills = taco.filter(lambda entry: set(eval(entry['skill_types'])) & skills)

TACO的统计数据

比较维度TACOCodeContestAPPSHumanEval(/-X)MBP(/X)P
问题规模 (训练/开发/测试)25443/-/100013328/117/1655000/-/5000-/-/164374/-/500
测试集中无答案043/1651235/500000
重复问题无重复无重复无重复已删除重复已删除重复
重复答案已删除重复无重复无重复已删除重复已删除重复
每个问题的测试用例数202.3203.720.997.773
任务主题
算法标签
编程技能
难度标签

TACO中算法标签的分布如下:

<center> <img src="https://yellow-cdn.veclightyear.com/835a84d5/1e23ca08-0bdc-4762-bd38-1bc2d66589b0.png" width="600"/> </center>

TACO中编程技能的分布如下:

<center> <img src="https://yellow-cdn.veclightyear.com/835a84d5/4e53647a-f95a-4630-9ca7-e9376a1f211f.png" width="600"/> </center>

使用TACO进行评估

首先,您应该初始化模型、分词器以及要使用的难度或技能来使用TACO。

# 初始化模型和分词器 model_name = 'codellama/CodeLlama-7b-hf' tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) device = "cuda:0" model = model.to(device) # 初始化评估数据集 difficulties = ['ALL'] # difficulties = ["EASY", "MEDIUM", "MEDIUM_HARD", "HARD", "VERY_HARD"] # skills = ['ALL'] # skills = ["Data structures", "Sorting", "Range queries", "Complete search", "Amortized analysis", "Dynamic programming", "Bit manipulation", "Greedy algorithms"] from datasets import load_dataset taco = load_dataset('BAAI/TACO', split='test', difficulties=difficulties) # taco = load_dataset('BAAI/TACO', split='test', skills=skills)

然后,使用代码模型运行生成。

# 设置运行次数 n_samples = 200 temperature = 0.2 top_p = 0.95 output = [] for idx, sample in enumerate(taco): prompt = sample['question'] results = {"task_id": idx, "prompt": prompt} generations = [] for i in range(n_samples): seed = i generation = predict(device, model, tokenizer, prompt, seed, top_p, temperature, max_length=2048) clean_code = truncate_after_eof_strings(generation) generations.append(clean_code) results["output"] = generations output.append(results)

generation.py提供了使用CodeLlama生成TACO结果样本的完整示例,它输出一个JSON格式的文件generation.json

[ { "task_id": 0, "prompt": "IT城市的城市公园包含n个从东到...", "output": [ "\ndef solve(n):\n return n**5 - 10*n**4 + 40*n**3 ...", "\ndef solve(n):\n return n**5 - 10*n**4 + 40*n**3 ...", ... ] }, { "task_id": "1", "prompt": "动物园管理员正在购买一箱水果来喂养...", "output": [ "\ndef solve(n, s):\n pre, suf, ans = [0]*n, [0]*n, ...", "\ndef solve(n, s):\n pre, suf, ans = [0]*n, [0]*n, ...", ... ] }, ... ]

最后,执行生成的代码并计算指标。 compute_metric.py提供了使用上一步的generation.json进行代码执行和pass@k计算的完整示例。 结果文件 taco_metrics.json 的格式如下:

{ "pass@1": 0.0932, "pass@10": 0.1515, "pass@100": 0.1999, "detail" : { "pass@1": { "0": ..., "1": ..., ... }, "pass@10": { "0": ..., "1": ..., ... }, "pass@100": { "0": ..., "1": ..., ... }, } }

使用TACO进行微调

首先,你需要对TACO的训练集进行分词。我们提供了一个Python脚本 pretokenizing.py 和一个示例shell脚本 pretokenize.sh 来帮助你。这一步会在 cache_dir 目录下输出一个预分词的训练数据,文件名为 dataset_name。以下是使用CodeLlama-7b进行分词的示例:

python pretokenizing.py \ --tokenizer_dir codellama/CodeLlama-7b-hf \ --cache_dir . \ --dataset_name codellama_tokenized

然后,使用预分词的训练数据进行微调。我们提供了一个Python脚本 train.py 和一个示例shell脚本 finetune.sh 来帮助你。这一步会在 output_dir 目录下输出检查点。以下是微调CodeLlama-7b的示例:

torchrun --nproc_per_node=8 --nnodes=1 train.py \ --model_name_or_path codellama/CodeLlama-7b-hf \ --data_path codellama_tokenized \ --bf16 True \ --output_dir codellama_ft \ --num_train_epochs 2 \ --per_device_train_batch_size 4 \ --gradient_accumulation_steps 8 \ --evaluation_strategy "no" \ --save_strategy "steps" \ --save_steps 500 \ --save_total_limit 1 \ --learning_rate 5e-5 \ --weight_decay 0.1 \ --warmup_ratio 0.1 \ --logging_steps 1 \ --resume_from_checkpoint True \ --gradient_checkpointing True \ --deepspeed ds_configs/deepspeed_z2_config_bf16.json

评估结果

我们使用TACO测试集和训练集对GPT-4以及一个在大量代码数据上训练的代码生成模型进行了实验。结果显示:

  • TACO测试集具有高度挑战性,GPT-4在简单级别上的pass@1分数仅为31.5。除GPT-4外,各种代码模型在五个难度级别上的pass@1分数普遍低于10。即使是pass@100的分数也不如GPT-4的pass@1高。

    <center> <img src="https://yellow-cdn.veclightyear.com/835a84d5/132e4838-27fa-4585-a268-c41f2fc45b2f.png" width="600"/> </center>
  • 利用TACO训练集中的细粒度标签可以有选择地提高代码生成模型的性能。例如,在使用TACO训练集对starcoder-1b进行特定技能的微调后,性能有明显提升。

    <center> <img src="https://yellow-cdn.veclightyear.com/835a84d5/031e866b-040a-4dbb-b42c-c6827c27f9d2.png" width="600"/> </center>

引用

如果您使用了本项目的模型、数据或代码,请引用原始论文:

@article{li2023taco,
  title={TACO: Topics in Algorithmic COde generation dataset},
  author={Rongao Li and Jie Fu and Bo-Wen Zhang and Tao Huang and Zhihong Sun and Chen Lyu and Guang Liu and Zhi Jin and Ge Li},
  journal={arXiv preprint arXiv:2312.14852},
  year={2023}
}

许可证

由北京智源人工智能研究院、山东师范大学和北京大学编写的TACO数据集根据Apache 2.0许可证发布。然而,数据集也包含了根据其他宽松许可证(如MIT许可证)授权的内容,或根据CC BY 4.0许可证(知识共享署名4.0国际许可证)条款使用的网络爬取数据。

我们衷心感谢以下贡献:

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多