[!注意] 这是 AutoCodeRover 项目的公开版本。查看我们 网站 上的最新结果。
AutoCodeRover 是一种完全自动化的方法,用于解决 GitHub issues(bug 修复和功能添加),它结合了 LLM 与分析和调试能力,以优先确定补丁位置,最终生成补丁。
[2024年6月20日更新] AutoCodeRover(v20240620) 现在可以解决 SWE-bench lite 中 30.67% 的问题(pass@1)!AutoCodeRover 在实现这一效能的同时保持经济实惠 - 每个任务花费 不到 0.7 美元,并在 7 分钟内 完成!
<p align="center"> <img src=https://github.com/nus-apr/auto-code-rover/assets/16000056/78d184b2-f15c-4408-9eac-cfd3a11a503a width=500/> <img src=https://github.com/nus-apr/auto-code-rover/assets/16000056/83253ae9-8789-474e-942d-708495b5b310 width=500/> </p>[2024年4月8日] AutoCodeRover(v20240408) 首次发布,在 SWE-bench lite 中解决了 19% 的问题(pass@1),超过了当前 AI 软件工程师的最先进效能。
AutoCodeRover 分两个阶段工作:
AutoCodeRover 有两个独特功能:
引用我们的工作时,请使用以下引用格式:
@misc{zhang2024autocoderover,
title={AutoCodeRover: Autonomous Program Improvement},
author={Yuntong Zhang and Haifeng Ruan and Zhiyu Fan and Abhik Roychoudhury},
year={2024},
eprint={2404.05427},
archivePrefix={arXiv},
primaryClass={cs.SE}
}
作为示例,AutoCodeRover 成功修复了 Django 的 issue #32347。查看演示视频了解完整过程:
https://github.com/nus-apr/auto-code-rover/assets/48704330/719c7a56-40b8-4f3d-a90e-0069e37baad3
如果有测试用例可用,AutoCodeRover 可以解决更多问题。查看视频中的示例:
https://github.com/nus-apr/auto-code-rover/assets/48704330/26c9d5d4-04e0-4b98-be55-61c1d10a36e5
我们建议在 Docker 容器中运行 AutoCodeRover。
将 OPENAI_KEY
环境变量设置为你的 OpenAI 密钥:
export OPENAI_KEY=sk-YOUR-OPENAI-API-KEY-HERE
对于 Anthropic 模型,可以在 这里 找到 ANTHROPIC_API_KEY
环境变量
export ANTHROPIC_API_KEY=sk-ant-api...
GROQ_API_KEY
设置方法相同
构建并启动 Docker 镜像:
docker build -f Dockerfile -t acr .
docker run -it -e OPENAI_KEY="${OPENAI_KEY:-OPENAI_API_KEY}" -p 3000:3000 -p 5000:5000 acr
或者,你可以使用支持arm64(Apple silicon)和ppc以及amd64的Dockerfile.scratch
。
Dockerfile.scratch
将同时构建SWE-bench(从https://github.com/yuntongzhang/SWE-bench.git)和ACR。
docker build -f Dockerfile.scratch -t acr .
在Dockerfile.scratch
中可以使用构建参数来自定义构建,如下所示:
docker build --build-arg GIT_EMAIL=your@email.com --build-arg GIT_NAME=your_id \
--build-arg SWE_BENCH_REPO=https://github.com/your_id/SWE-bench.git \
-f Dockerfile.scratch -t acr .
设置完成后,我们可以在三种模式下运行ACR:
如果你想在项目的新GitHub问题上使用AutoCodeRover,请准备以下内容:
git clone ...
)。git checkout ...
)。然后,在docker容器(或你的AutoCodeRover本地副本)中,运行以下命令来设置目标项目并生成补丁:
cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py github-issue --output-dir output --setup-dir setup --model gpt-4o-2024-05-13 --model-temperature 0.2 --task-id <task id> --clone-link <项目克隆链接> --commit-hash <包含该问题的任何版本> --issue-link <问题页面链接>
以下是在langchain GitHub问题跟踪器中的一个问题上运行ACR的示例命令:
PYTHONPATH=. python app/main.py github-issue --output-dir output --setup-dir setup --model gpt-4o-2024-05-13 --model-temperature 0.2 --task-id langchain-20453 --clone-link https://github.com/langchain-ai/langchain.git --commit-hash cb6e5e5 --issue-link https://github.com/langchain-ai/langchain/issues/20453
<task id>
可以是用于标识此问题的任何字符串。
如果补丁生成成功,最后会打印生成的补丁路径。
我们还提供了Web界面来可视化问题修复过程。 在docker shell中,运行以下命令:
cd /opt/auto-code-rover/demo_vis/ bash run.sh
然后在网页浏览器中打开localhost:3000
。
除了克隆远程项目并在在线问题上运行ACR外,如果适合用例,你还可以提前准备本地仓库和问题。
要在本地问题和本地代码库上运行ACR,准备一个本地代码库并将问题描述写入文件,然后运行以下命令:
cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py local-issue --output-dir output --model gpt-4o-2024-05-13 --model-temperature 0.2 --task-id <task id> --local-repo <本地项目仓库路径> --issue-file <包含问题描述的文件路径>
如果补丁生成成功,最后会打印生成的补丁路径。
此模式用于在SWE-bench中包含的现有问题任务上运行ACR。
在docker容器中,我们首先需要设置要在SWE-bench中运行的任务(例如,django__django-11133
)。所有任务的列表可以在conf/swe_lite_tasks.txt
中找到。
任务需要放在一个文件中,每行一个:
cd /opt/SWE-bench
echo django__django-11133 > tasks.txt
或者如果在arm64上运行(例如Apple silicon),可以尝试以下不依赖Python 3.6的任务(该环境不支持Python 3.6):
echo django__django-16041 > tasks.txt
然后,通过运行以下命令设置这些任务:
cd /opt/SWE-bench
conda activate swe-bench
python harness/run_setup.py --log_dir logs --testbed testbed --result_dir setup_result --subset_file tasks.txt
一旦此任务的设置完成,将打印以下两行:
setup_map is saved to setup_result/setup_map.json
tasks_map is saved to setup_result/tasks_map.json
testbed
目录现在将包含目标项目的克隆源代码。
还将为此任务实例创建一个conda环境。
如果你想一起设置多个任务,将它们的ID放入tasks.txt
并按照相同的步骤操作。
在运行任务(这里是django__django-11133
)之前,确保已按照上文所述进行了设置。
cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py swe-bench --model gpt-4o-2024-05-13 --setup-map ../SWE-bench/setup_result/setup_map.json --tasks-map ../SWE-bench/setup_result/tasks_map.json --output-dir output --task django__django-11133
运行的输出可以在output/
中找到。例如,为django__django-11133
生成的补丁可以在类似这样的位置找到:output/applicable_patch/django__django-11133_yyyy-MM-dd_HH-mm-ss/extracted_patch_1.diff
(目录名中的日期时间字段会根据实验运行的时间不同而不同 )。
首先,将所有要运行的任务的ID放在一个文件中,每行一个。假设这个文件是tasks.txt
,可以使用以下命令运行任务:
cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py swe-bench --model gpt-4o-2024-05-13 --setup-map ../SWE-bench/setup_result/setup_map.json --tasks-map ../SWE-bench/setup_result/tasks_map.json --output-dir output --task-list-file /opt/SWE-bench/tasks.txt
注意:确保tasks.txt
中的任务都已在SWE-bench中设置完毕。参见上文的步骤。
或者,可以使用配置文件来指定所有参数和要运行的任务。参见conf/vanilla-lite.conf
作为示例。
另请参阅EXPERIMENT.md了解配置文件中各项的详细信息。
可以通过以下方式使用配置文件:
python scripts/run.py conf/vanilla-lite.conf
AutoCodeRover可以与不同的基础模型一起工作。你可以使用--model
命令行参数设置要使用的基础模型。
当前支持的模型列表:
模型 | AutoCodeRover命令行参数 | |
---|---|---|
OpenAI | gpt-4o-2024-08-06 | --model gpt-4o-2024-08-06 |
gpt-4o-2024-05-13 | --model gpt-4o-2024-05-13 | |
gpt-4-turbo-2024-04-09 | --model gpt-4-turbo-2024-04-09 | |
gpt-4-0125-preview | --model gpt-4-0125-preview | |
gpt-4-1106-preview | --model gpt-4-1106-preview | |
gpt-3.5-turbo-0125 | --model gpt-3.5-turbo-0125 | |
gpt-3.5-turbo-1106 | --model gpt-3.5-turbo-1106 | |
gpt-3.5-turbo-16k-0613 | --model gpt-3.5-turbo-16k-0613 | |
gpt-3.5-turbo-0613 | --model gpt-3.5-turbo-0613 | |
gpt-4-0613 | --model gpt-4-0613 | |
Anthropic | Claude 3.5 Sonnet | --model claude-3-5-sonnet-20240620 |
Claude 3 Opus | --model claude-3-opus-20240229 | |
Claude 3 Sonnet | --model claude-3-sonnet-20240229 | |
Claude 3 Haiku | --model claude-3-haiku-20240307 | |
Meta | Llama 3 70B | --model llama3:70b |
Llama 3 8B | --model llama3 | |
AWS | Claude 3 Opus | --model bedrock/anthropic.claude-3-opus-20240229-v1:0 |
Claude 3 Sonnet | --model bedrock/anthropic.claude-3-sonnet-20240229-v1:0 | |
Claude 3 Haiku | --model bedrock/anthropic.claude-3-haiku-20240307-v1:0 | |
Groq | Llama 3 8B | --model groq/llama3-8b-8192 |
Llama 3 70B | --model groq/llama3-70b-8192 | |
Llama 2 70B | --model groq/llama2-70b-4096 | |
Mixtral 8x7B | --model groq/mixtral-8x7b-32768 | |
Gemma 7B | --model groq/gemma-7b-it |
[!注意] 在免费计划中使用Groq模型可能会导致超出上下文限制,即使是简单的问题也可能出现这种情况。
[!注意] 关于使用本地模型(如llama3)运行ACR的一些说明:
- 在使用llama3模型之前,请安装ollama并使用ollama下载相应的模型(例如
ollama pull llama3
)。- 你可以在主机上运行ollama服务器,而在其容器中运行ACR。ACR将尝试与主机上的ollama服务器通信。
- 如果你的设置是主机上的ollama + 容器中的ACR,我们建议在主机上安装Docker Desktop,除了Docker Engine之外。
- Docker Desktop包含Docker Engine,并且还有一个虚拟机,使得从容器内部更容易访问主机端口。使用Docker Desktop,这种设置将无需额外努力即可工作。
- 当docker安装仅为Docker Engine时,你可能需要在启动ACR容器时的
docker run
命令中添加--net=host
或--add-host host.docker.internal=host-gateway
,以便ACR可以与主机上的ollama服务器通信。
请参考EXPERIMENT.md获取有关实验复现的信息。
如有任何疑问,欢迎您提出问题。
或者,您可以通过以下邮箱联系我们:{yuntong,hruan,zhiyufan}@comp.nus.edu.sg。
本工作部分得到了新加坡教育部(MoE)三级拨款"自动程序修复"(MOE-MOET32021-0001)的支持。
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号