auto-code-rover

auto-code-rover

自主程序修复与优化的开源AI工具

AutoCodeRover是一个开源的AI程序改进工具,专注于自动化解决GitHub问题和优化代码。它整合了大型语言模型和代码分析技术,高效处理bug修复和功能增添。支持GitHub问题、本地问题和SWE-bench任务等多种运行模式,操作简便灵活。在SWE-bench lite测试中,AutoCodeRover展现出显著的性能,修复率达30.67%,平均每个任务仅需0.7美元和7分钟。

AutoCodeRover程序改进AI修复代码搜索统计故障定位Github开源项目

AutoCodeRover:自主程序改进

<br> <p align="center"> <img src="https://github.com/nus-apr/auto-code-rover/assets/16000056/8d249b02-1db4-4f58-a5a4-bdb694d65ab1" alt="autocoderover_logo" width="200px" height="200px"> </p> <p align="center"> <a href="https://arxiv.org/abs/2404.05427"><strong>ArXiv 论文</strong></a> &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://autocoderover.dev/"><strong>网站</strong></a> &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://discord.gg/ScXsdE49JY"><strong>Discord 服务器</strong></a> </p> <br>

整体工作流程

<br>

[!注意] 这是 AutoCodeRover 项目的公开版本。查看我们 网站 上的最新结果。

📣 更新

  • [2024年8月14日] 在 OpenAI 发布的 SWE-bench Verified 数据集上,AutoCodeRover(v20240620) 实现了 38.40% 的效能,AutoCodeRover(v20240408) 实现了 28.8% 的效能。更多详情请参阅 OpenAI 的 博客文章SWE-bench 排行榜
  • [2024年7月18日] AutoCodeRover 现在支持一种新模式,可以输出潜在修复位置列表。
  • [2024年6月20日] AutoCodeRover(v20240620) 现在在 SWE-bench-lite 上实现了 30.67% 的效能(pass@1)!
  • [2024年6月8日] 增加了对 Gemini、Groq(感谢 KasaiHarcore 的贡献!)和通过 AWS Bedrock 的 Anthropic 模型的支持(感谢 JGalego 的贡献!)。
  • [2024年4月29日] 增加了对 Claude 和 Llama 模型的支持。在 这里 查看支持的模型列表!更多模型支持即将推出。
  • [2024年4月19日] AutoCodeRover 现在支持在 GitHub issues本地 issues 上运行!欢迎尝试并提供反馈!

Discord - 用于一般讨论、问题和反馈的服务器。

👋 概述

AutoCodeRover 是一种完全自动化的方法,用于解决 GitHub issues(bug 修复和功能添加),它结合了 LLM 与分析和调试能力,以优先确定补丁位置,最终生成补丁。

[2024年6月20日更新] AutoCodeRover(v20240620) 现在可以解决 SWE-bench lite 中 30.67% 的问题(pass@1)!AutoCodeRover 在实现这一效能的同时保持经济实惠 - 每个任务花费 不到 0.7 美元,并在 7 分钟内 完成!

<p align="center"> <img src=https://github.com/nus-apr/auto-code-rover/assets/16000056/78d184b2-f15c-4408-9eac-cfd3a11a503a width=500/> <img src=https://github.com/nus-apr/auto-code-rover/assets/16000056/83253ae9-8789-474e-942d-708495b5b310 width=500/> </p>

[2024年4月8日] AutoCodeRover(v20240408) 首次发布,在 SWE-bench lite 中解决了 19% 的问题(pass@1),超过了当前 AI 软件工程师的最先进效能。

AutoCodeRover 分两个阶段工作:

  • 🔎 上下文检索:为 LLM 提供代码搜索 API,以导航代码库并收集相关上下文。
  • 💊 补丁生成:LLM 根据检索到的上下文尝试编写补丁。

✨ 亮点

AutoCodeRover 有两个独特功能:

  • 代码搜索 API 是 程序结构感知的。AutoCodeRover 不是通过简单的字符串匹配在文件中搜索,而是在抽象语法树中搜索相关的代码上下文(方法/类)。
  • 当有测试套件可用时,AutoCodeRover 可以利用测试用例来实现更高的修复率,通过执行 统计故障定位

🗎 arXiv 论文

AutoCodeRover:自主程序改进 [arXiv 2404.05427]

<p align="center"> <a href="https://arxiv.org/abs/2404.05427"> <img src="https://github.com/nus-apr/auto-code-rover/assets/48704330/c6422951-a6e8-4494-9403-b5ada3d9ee7d" alt="arXiv 论文第一页" width="570"> </a> </p>

引用我们的工作时,请使用以下引用格式:

@misc{zhang2024autocoderover,
      title={AutoCodeRover: Autonomous Program Improvement},
      author={Yuntong Zhang and Haifeng Ruan and Zhiyu Fan and Abhik Roychoudhury},
      year={2024},
      eprint={2404.05427},
      archivePrefix={arXiv},
      primaryClass={cs.SE}
}

✔️ 示例:Django Issue #32347

作为示例,AutoCodeRover 成功修复了 Django 的 issue #32347。查看演示视频了解完整过程:

https://github.com/nus-apr/auto-code-rover/assets/48704330/719c7a56-40b8-4f3d-a90e-0069e37baad3

增强:利用测试用例

如果有测试用例可用,AutoCodeRover 可以解决更多问题。查看视频中的示例:

https://github.com/nus-apr/auto-code-rover/assets/48704330/26c9d5d4-04e0-4b98-be55-61c1d10a36e5

🚀 设置和运行

设置 API 密钥和环境

我们建议在 Docker 容器中运行 AutoCodeRover。

OPENAI_KEY 环境变量设置为你的 OpenAI 密钥

export OPENAI_KEY=sk-YOUR-OPENAI-API-KEY-HERE

对于 Anthropic 模型,可以在 这里 找到 ANTHROPIC_API_KEY 环境变量

export ANTHROPIC_API_KEY=sk-ant-api...

GROQ_API_KEY 设置方法相同

构建并启动 Docker 镜像:

docker build -f Dockerfile -t acr .
docker run -it -e OPENAI_KEY="${OPENAI_KEY:-OPENAI_API_KEY}" -p 3000:3000 -p 5000:5000 acr

或者,你可以使用支持arm64(Apple silicon)和ppc以及amd64的Dockerfile.scratchDockerfile.scratch将同时构建SWE-bench(从https://github.com/yuntongzhang/SWE-bench.git)和ACR。

docker build -f Dockerfile.scratch -t acr .

Dockerfile.scratch中可以使用构建参数来自定义构建,如下所示:

docker build --build-arg GIT_EMAIL=your@email.com --build-arg GIT_NAME=your_id \
       --build-arg SWE_BENCH_REPO=https://github.com/your_id/SWE-bench.git \
       -f Dockerfile.scratch -t acr .

设置完成后,我们可以在三种模式下运行ACR:

  1. GitHub问题模式:通过提供问题页面的链接,在实时GitHub问题上运行ACR。
  2. 本地问题模式:在本地仓库和包含问题描述的文件上运行ACR。
  3. SWE-bench模式:在SWE-bench任务实例上运行ACR。

[GitHub问题模式] 设置并在新的GitHub问题上运行

如果你想在项目的新GitHub问题上使用AutoCodeRover,请准备以下内容:

  • 克隆项目的链接(用于git clone ...)。
  • AutoCodeRover工作的项目版本的提交哈希(用于git checkout ...)。
  • GitHub问题页面的链接。

然后,在docker容器(或你的AutoCodeRover本地副本)中,运行以下命令来设置目标项目并生成补丁:

cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py github-issue --output-dir output --setup-dir setup --model gpt-4o-2024-05-13 --model-temperature 0.2 --task-id <task id> --clone-link <项目克隆链接> --commit-hash <包含该问题的任何版本> --issue-link <问题页面链接>

以下是在langchain GitHub问题跟踪器中的一个问题上运行ACR的示例命令:

PYTHONPATH=. python app/main.py github-issue --output-dir output --setup-dir setup --model gpt-4o-2024-05-13 --model-temperature 0.2 --task-id langchain-20453 --clone-link https://github.com/langchain-ai/langchain.git --commit-hash cb6e5e5 --issue-link https://github.com/langchain-ai/langchain/issues/20453

<task id>可以是用于标识此问题的任何字符串。

如果补丁生成成功,最后会打印生成的补丁路径。

我们还提供了Web界面来可视化问题修复过程。 在docker shell中,运行以下命令:

cd /opt/auto-code-rover/demo_vis/ bash run.sh

然后在网页浏览器中打开localhost:3000

[本地问题模式] 在本地仓库和本地问题上设置和运行

除了克隆远程项目并在在线问题上运行ACR外,如果适合用例,你还可以提前准备本地仓库和问题。

要在本地问题和本地代码库上运行ACR,准备一个本地代码库并将问题描述写入文件,然后运行以下命令:

cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py local-issue --output-dir output --model gpt-4o-2024-05-13 --model-temperature 0.2 --task-id <task id> --local-repo <本地项目仓库路径> --issue-file <包含问题描述的文件路径>

如果补丁生成成功,最后会打印生成的补丁路径。

[SWE-bench模式] 在SWE-bench任务上设置和运行

此模式用于在SWE-bench中包含的现有问题任务上运行ACR。

设置

在docker容器中,我们首先需要设置要在SWE-bench中运行的任务(例如,django__django-11133)。所有任务的列表可以在conf/swe_lite_tasks.txt中找到。

任务需要放在一个文件中,每行一个:

cd /opt/SWE-bench
echo django__django-11133 > tasks.txt

或者如果在arm64上运行(例如Apple silicon),可以尝试以下不依赖Python 3.6的任务(该环境不支持Python 3.6):

echo django__django-16041 > tasks.txt

然后,通过运行以下命令设置这些任务:

cd /opt/SWE-bench
conda activate swe-bench
python harness/run_setup.py --log_dir logs --testbed testbed --result_dir setup_result --subset_file tasks.txt

一旦此任务的设置完成,将打印以下两行:

setup_map is saved to setup_result/setup_map.json
tasks_map is saved to setup_result/tasks_map.json

testbed目录现在将包含目标项目的克隆源代码。 还将为此任务实例创建一个conda环境。

如果你想一起设置多个任务,将它们的ID放入tasks.txt并按照相同的步骤操作。

在SWE-bench中运行单个任务

在运行任务(这里是django__django-11133)之前,确保已按照上文所述进行了设置。

cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py swe-bench --model gpt-4o-2024-05-13 --setup-map ../SWE-bench/setup_result/setup_map.json --tasks-map ../SWE-bench/setup_result/tasks_map.json --output-dir output --task django__django-11133

运行的输出可以在output/中找到。例如,为django__django-11133生成的补丁可以在类似这样的位置找到:output/applicable_patch/django__django-11133_yyyy-MM-dd_HH-mm-ss/extracted_patch_1.diff(目录名中的日期时间字段会根据实验运行的时间不同而不同)。

在SWE-bench中运行多个任务

首先,将所有要运行的任务的ID放在一个文件中,每行一个。假设这个文件是tasks.txt,可以使用以下命令运行任务:

cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py swe-bench --model gpt-4o-2024-05-13 --setup-map ../SWE-bench/setup_result/setup_map.json --tasks-map ../SWE-bench/setup_result/tasks_map.json --output-dir output --task-list-file /opt/SWE-bench/tasks.txt

注意:确保tasks.txt中的任务都已在SWE-bench中设置完毕。参见上文的步骤。

使用配置文件

或者,可以使用配置文件来指定所有参数和要运行的任务。参见conf/vanilla-lite.conf作为示例。 另请参阅EXPERIMENT.md了解配置文件中各项的详细信息。 可以通过以下方式使用配置文件:

python scripts/run.py conf/vanilla-lite.conf

使用不同的模型

AutoCodeRover可以与不同的基础模型一起工作。你可以使用--model命令行参数设置要使用的基础模型。

当前支持的模型列表:

模型AutoCodeRover命令行参数
OpenAIgpt-4o-2024-08-06--model gpt-4o-2024-08-06
gpt-4o-2024-05-13--model gpt-4o-2024-05-13
gpt-4-turbo-2024-04-09--model gpt-4-turbo-2024-04-09
gpt-4-0125-preview--model gpt-4-0125-preview
gpt-4-1106-preview--model gpt-4-1106-preview
gpt-3.5-turbo-0125--model gpt-3.5-turbo-0125
gpt-3.5-turbo-1106--model gpt-3.5-turbo-1106
gpt-3.5-turbo-16k-0613--model gpt-3.5-turbo-16k-0613
gpt-3.5-turbo-0613--model gpt-3.5-turbo-0613
gpt-4-0613--model gpt-4-0613
AnthropicClaude 3.5 Sonnet--model claude-3-5-sonnet-20240620
Claude 3 Opus--model claude-3-opus-20240229
Claude 3 Sonnet--model claude-3-sonnet-20240229
Claude 3 Haiku--model claude-3-haiku-20240307
MetaLlama 3 70B--model llama3:70b
Llama 3 8B--model llama3
AWSClaude 3 Opus--model bedrock/anthropic.claude-3-opus-20240229-v1:0
Claude 3 Sonnet--model bedrock/anthropic.claude-3-sonnet-20240229-v1:0
Claude 3 Haiku--model bedrock/anthropic.claude-3-haiku-20240307-v1:0
GroqLlama 3 8B--model groq/llama3-8b-8192
Llama 3 70B--model groq/llama3-70b-8192
Llama 2 70B--model groq/llama2-70b-4096
Mixtral 8x7B--model groq/mixtral-8x7b-32768
Gemma 7B--model groq/gemma-7b-it

[!注意] 在免费计划中使用Groq模型可能会导致超出上下文限制,即使是简单的问题也可能出现这种情况。

[!注意] 关于使用本地模型(如llama3)运行ACR的一些说明:

  1. 在使用llama3模型之前,请安装ollama并使用ollama下载相应的模型(例如ollama pull llama3)。
  2. 你可以在主机上运行ollama服务器,而在其容器中运行ACR。ACR将尝试与主机上的ollama服务器通信。
  3. 如果你的设置是主机上的ollama + 容器中的ACR,我们建议在主机上安装Docker Desktop,除了Docker Engine之外。
    • Docker Desktop包含Docker Engine,并且还有一个虚拟机,使得从容器内部更容易访问主机端口。使用Docker Desktop,这种设置将无需额外努力即可工作。
    • 当docker安装仅为Docker Engine时,你可能需要在启动ACR容器时的docker run命令中添加--net=host--add-host host.docker.internal=host-gateway,以便ACR可以与主机上的ollama服务器通信。

实验复现

请参考EXPERIMENT.md获取有关实验复现的信息。

✉️ 联系方式

如有任何疑问,欢迎您提出问题。

或者,您可以通过以下邮箱联系我们:{yuntong,hruan,zhiyufan}@comp.nus.edu.sg。

致谢

本工作部分得到了新加坡教育部(MoE)三级拨款"自动程序修复"(MOE-MOET32021-0001)的支持。

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多