[!注意] 这是 AutoCodeRover 项目的公开版本。查看我们 网站 上的最新结果。
AutoCodeRover 是一种完全自动化的方法,用于解决 GitHub issues(bug 修复和功能添加),它结合了 LLM 与分析和调试能力,以优先确定补丁位置,最终生成补丁。
[2024年6月20日更新] AutoCodeRover(v20240620) 现在可以解决 SWE-bench lite 中 30.67% 的问题(pass@1)!AutoCodeRover 在实现这一效能的同时保持经济实惠 - 每个任务花费 不到 0.7 美元,并在 7 分钟内 完成!
<p align="center"> <img src=https://github.com/nus-apr/auto-code-rover/assets/16000056/78d184b2-f15c-4408-9eac-cfd3a11a503a width=500/> <img src=https://github.com/nus-apr/auto-code-rover/assets/16000056/83253ae9-8789-474e-942d-708495b5b310 width=500/> </p>[2024年4月8日] AutoCodeRover(v20240408) 首次发布,在 SWE-bench lite 中解决了 19% 的问题(pass@1),超过了当前 AI 软件工程师的最先进效能。
AutoCodeRover 分两个阶段工作:
AutoCodeRover 有两个独特功能:
引用我们的工作时,请使用以下引用格式:
@misc{zhang2024autocoderover,
title={AutoCodeRover: Autonomous Program Improvement},
author={Yuntong Zhang and Haifeng Ruan and Zhiyu Fan and Abhik Roychoudhury},
year={2024},
eprint={2404.05427},
archivePrefix={arXiv},
primaryClass={cs.SE}
}
作为示例,AutoCodeRover 成功修复了 Django 的 issue #32347。查看演示视频了解完整过程:
https://github.com/nus-apr/auto-code-rover/assets/48704330/719c7a56-40b8-4f3d-a90e-0069e37baad3
如果有测试用例可用,AutoCodeRover 可以解决更多问题。查看视频中的示例:
https://github.com/nus-apr/auto-code-rover/assets/48704330/26c9d5d4-04e0-4b98-be55-61c1d10a36e5
我们建议在 Docker 容器中运行 AutoCodeRover。
将 OPENAI_KEY
环境变量设置为你的 OpenAI 密钥:
export OPENAI_KEY=sk-YOUR-OPENAI-API-KEY-HERE
对于 Anthropic 模型,可以在 这里 找到 ANTHROPIC_API_KEY
环境变量
export ANTHROPIC_API_KEY=sk-ant-api...
GROQ_API_KEY
设置方法相同
构建并启动 Docker 镜像:
docker build -f Dockerfile -t acr .
docker run -it -e OPENAI_KEY="${OPENAI_KEY:-OPENAI_API_KEY}" -p 3000:3000 -p 5000:5000 acr
或者,你可以使用支持arm64(Apple silicon)和ppc以及amd64的Dockerfile.scratch
。
Dockerfile.scratch
将同时构建SWE-bench(从https://github.com/yuntongzhang/SWE-bench.git)和ACR。
docker build -f Dockerfile.scratch -t acr .
在Dockerfile.scratch
中可以使用构建参数来自定义构建,如下所示:
docker build --build-arg GIT_EMAIL=your@email.com --build-arg GIT_NAME=your_id \
--build-arg SWE_BENCH_REPO=https://github.com/your_id/SWE-bench.git \
-f Dockerfile.scratch -t acr .
设置完成后,我们可以在三种模式下运行ACR:
如果你想在项目的新GitHub问题上使用AutoCodeRover,请准备以下内容:
git clone ...
)。git checkout ...
)。然后,在docker容器(或你的AutoCodeRover本地副本)中,运行以下命令来设置目标项目并生成补丁:
cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py github-issue --output-dir output --setup-dir setup --model gpt-4o-2024-05-13 --model-temperature 0.2 --task-id <task id> --clone-link <项目克隆链接> --commit-hash <包含该问题的任何版本> --issue-link <问题页面链接>
以下是在langchain GitHub问题跟踪器中的一个问题上运行ACR的示例命令:
PYTHONPATH=. python app/main.py github-issue --output-dir output --setup-dir setup --model gpt-4o-2024-05-13 --model-temperature 0.2 --task-id langchain-20453 --clone-link https://github.com/langchain-ai/langchain.git --commit-hash cb6e5e5 --issue-link https://github.com/langchain-ai/langchain/issues/20453
<task id>
可以是用于标识此问题的任何字符串。
如果补丁生成成功,最后会打印生成的补丁路径。
我们还提供了Web界面来可视化问题修复过程。 在docker shell中,运行以下命令:
cd /opt/auto-code-rover/demo_vis/ bash run.sh
然后在网页浏览器中打开localhost:3000
。
除了克隆远程项目并在在线问题上运行ACR外,如果适合用例,你还可以提前准备本地仓库和问题。
要在本地问题和本地代码库上运行ACR,准备一个本地代码库并将问题描述写入文件,然后运行以下命令:
cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py local-issue --output-dir output --model gpt-4o-2024-05-13 --model-temperature 0.2 --task-id <task id> --local-repo <本地项目仓库路径> --issue-file <包含问题描述的文件路径>
如果补丁生成成功,最后会打印生成的补丁路径。
此模式用于在SWE-bench中包含的现有问题任务上运行ACR。
在docker容器中,我们首先需要设置要在SWE-bench中运行的任务(例如,django__django-11133
)。所有任务的列表可以在conf/swe_lite_tasks.txt
中找到。
任务需要放在一个文件中,每行一个:
cd /opt/SWE-bench
echo django__django-11133 > tasks.txt
或者如果在arm64上运行(例如Apple silicon),可以尝试以下不依赖Python 3.6的任务(该环境不支持Python 3.6):
echo django__django-16041 > tasks.txt
然后,通过运行以下命令设置这些任务:
cd /opt/SWE-bench
conda activate swe-bench
python harness/run_setup.py --log_dir logs --testbed testbed --result_dir setup_result --subset_file tasks.txt
一旦此任务的设置完成,将打印以下两行:
setup_map is saved to setup_result/setup_map.json
tasks_map is saved to setup_result/tasks_map.json
testbed
目录现在将包含目标项目的克隆源代码。
还将为此任务实例创建一个conda环境。
如果你想一起设置多个任务,将它们的ID放入tasks.txt
并按照相同的步骤操作。
在运行任务(这里是django__django-11133
)之前,确保已按照上文所述进行了设置。
cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py swe-bench --model gpt-4o-2024-05-13 --setup-map ../SWE-bench/setup_result/setup_map.json --tasks-map ../SWE-bench/setup_result/tasks_map.json --output-dir output --task django__django-11133
运行的输出可以在output/
中找到。例如,为django__django-11133
生成的补丁可以在类似这样的位置找到:output/applicable_patch/django__django-11133_yyyy-MM-dd_HH-mm-ss/extracted_patch_1.diff
(目录名中的日期时间字段会根据实验运行的时间不同而不同 )。
首先,将所有要运行的任务的ID放在一个文件中,每行一个。假设这个文件是tasks.txt
,可以使用以下命令运行任务:
cd /opt/auto-code-rover
conda activate auto-code-rover
PYTHONPATH=. python app/main.py swe-bench --model gpt-4o-2024-05-13 --setup-map ../SWE-bench/setup_result/setup_map.json --tasks-map ../SWE-bench/setup_result/tasks_map.json --output-dir output --task-list-file /opt/SWE-bench/tasks.txt
注意:确保tasks.txt
中的任务都已在SWE-bench中设置完毕。参见上文的步骤。
或者,可以使用配置文件来指定所有参数和要运行的任务。参见conf/vanilla-lite.conf
作为示例。
另请参阅EXPERIMENT.md了解配置文件中各项的详细信息。
可以通过以下方式使用配置文件:
python scripts/run.py conf/vanilla-lite.conf
AutoCodeRover可以与不同的基础模型一起工作。你可以使用--model
命令行参数设置要使用的基础模型。
当前支持的模型列表:
模型 | AutoCodeRover命令行参数 | |
---|---|---|
OpenAI | gpt-4o-2024-08-06 | --model gpt-4o-2024-08-06 |
gpt-4o-2024-05-13 | --model gpt-4o-2024-05-13 | |
gpt-4-turbo-2024-04-09 | --model gpt-4-turbo-2024-04-09 | |
gpt-4-0125-preview | --model gpt-4-0125-preview | |
gpt-4-1106-preview | --model gpt-4-1106-preview | |
gpt-3.5-turbo-0125 | --model gpt-3.5-turbo-0125 | |
gpt-3.5-turbo-1106 | --model gpt-3.5-turbo-1106 | |
gpt-3.5-turbo-16k-0613 | --model gpt-3.5-turbo-16k-0613 | |
gpt-3.5-turbo-0613 | --model gpt-3.5-turbo-0613 | |
gpt-4-0613 | --model gpt-4-0613 | |
Anthropic | Claude 3.5 Sonnet | --model claude-3-5-sonnet-20240620 |
Claude 3 Opus | --model claude-3-opus-20240229 | |
Claude 3 Sonnet | --model claude-3-sonnet-20240229 | |
Claude 3 Haiku | --model claude-3-haiku-20240307 | |
Meta | Llama 3 70B | --model llama3:70b |
Llama 3 8B | --model llama3 | |
AWS | Claude 3 Opus | --model bedrock/anthropic.claude-3-opus-20240229-v1:0 |
Claude 3 Sonnet | --model bedrock/anthropic.claude-3-sonnet-20240229-v1:0 | |
Claude 3 Haiku | --model bedrock/anthropic.claude-3-haiku-20240307-v1:0 | |
Groq | Llama 3 8B | --model groq/llama3-8b-8192 |
Llama 3 70B | --model groq/llama3-70b-8192 | |
Llama 2 70B | --model groq/llama2-70b-4096 | |
Mixtral 8x7B | --model groq/mixtral-8x7b-32768 | |
Gemma 7B | --model groq/gemma-7b-it |
[!注意] 在免费计划中使用Groq模型可能会导致超出上下文限制,即使是简单的问题也可能出现这种情况。
[!注意] 关于使用本地模型(如llama3)运行ACR的一些说明:
- 在使用llama3模型之前,请安装ollama并使用ollama下载相应的模型(例如
ollama pull llama3
)。- 你可以在主机上运行ollama服务器,而在其容器中运行ACR。ACR将尝试与主机上的ollama服务器通信。
- 如果你的设置是主机上的ollama + 容器中的ACR,我们建议在主机上安装Docker Desktop,除了Docker Engine之外。
- Docker Desktop包含Docker Engine,并且还有一个虚拟机,使得从容器内部更容易访问主机端口。使用Docker Desktop,这种设置将无需额外努力即可工作。
- 当docker安装仅为Docker Engine时,你可能需要在启动ACR容器时的
docker run
命令中添加--net=host
或--add-host host.docker.internal=host-gateway
,以便ACR可以与主机上的ollama服务器通信。
请参考EXPERIMENT.md获取有关实验复现的信息。
如有任何疑问,欢迎您提出问题。
或者,您可以通过以下邮箱联系我们:{yuntong,hruan,zhiyufan}@comp.nus.edu.sg。
本工作部分得到了新加坡教育部(MoE)三级拨款"自动程序修复"(MOE-MOET32021-0001)的支持。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率 。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号