
视觉语言多任务学习的统一接口
MiniGPT-4是一个视觉语言理解项目,整合了Llama 2和Vicuna模型以增强多模态能力。它支持图像描述、视觉问答和多任务学习,能够处理复杂的视觉理解任务。项目的开源性和灵活架构为研究人员和开发者提供了探索视觉语言AI的工具。
<font size='5'>MiniGPT-v2:大型语言模型作为视觉-语言多任务学习的统一接口</font>
Jun Chen, Deyao Zhu, Xiaoqian Shen, Xiang Li, Zechun Liu, Pengchuan Zhang, Raghuraman Krishnamoorthi, Vikas Chandra, Yunyang Xiong☨, Mohamed Elhoseiny☨
☨共同最后作者
<a href='https://minigpt-v2.github.io'><img src='https://img.shields.io/badge/项目-主页-Green'></a> <a href='https://arxiv.org/abs/2310.09478.pdf'><img src='https://img.shields.io/badge/论文-Arxiv-red'></a> <a href='https://huggingface.co/spaces/Vision-CAIR/MiniGPT-v2'><img src='https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Spaces-blue'> <a href='https://minigpt-v2.github.io'><img src='https://img.shields.io/badge/Gradio-演示-blue'></a>
<font size='5'> MiniGPT-4:利用先进的大型语言模型增强视觉-语言理解</font>
Deyao Zhu*, Jun Chen*, Xiaoqian Shen, Xiang Li, Mohamed Elhoseiny
*共同第一作者
<a href='https://minigpt-4.github.io'><img src='https://img.shields.io/badge/项目-主页-Green'></a> <a href='https://arxiv.org/abs/2304.10592'><img src='https://img.shields.io/badge/论文-Arxiv-red'></a> <a href='https://huggingface.co/spaces/Vision-CAIR/minigpt4'><img src='https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Spaces-blue'></a> <a href='https://huggingface.co/Vision-CAIR/MiniGPT-4'><img src='https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-模型-blue'></a>
阿卜杜拉国王科技大学
<font size='4'> 基于MiniGPT-4的社区努力示例 </font>
<a href='https://github.com/waltonfuture/InstructionGPT-4?tab=readme-ov-file'><img src='https://img.shields.io/badge/项目-主页-Green'></a> InstructionGPT-4:用于微调MiniGPT-4的200指令范式 Lai Wei, Zihao Jiang, Weiran Huang, Lichao Sun, Arxiv, 2023
<a href='https://openaccess.thecvf.com/content/ICCV2023W/CLVL/papers/Aubakirova_PatFig_Generating_Short_and_Long_Captions_for_Patent_Figures_ICCVW_2023_paper.pdf'><img src='https://img.shields.io/badge/项目-主页-Green'></a> PatFig:为专利图生成短文和长文说明。", Aubakirova, Dana, Kim Gerdes, 和 Lufei Liu, ICCVW, 2023
<a href='https://github.com/JoshuaChou2018/SkinGPT-4'><img src='https://img.shields.io/badge/项目-主页-Green'></a> SkinGPT-4:基于视觉大语言模型的交 互式皮肤病诊断系统,Juexiao Zhou 和 Xiaonan He 和 Liyuan Sun 和 Jiannan Xu 和 Xiuying Chen 和 Yuetan Chu 和 Longxi Zhou 和 Xingyu Liao 和 Bin Zhang 和 Xin Gao, Arxiv, 2023
<a href='https://huggingface.co/Tyrannosaurus/ArtGPT-4'><img src='https://img.shields.io/badge/项目-主页-Green'></a> ArtGPT-4:基于适配器增强的MiniGPT-4的艺术视觉-语言理解。", Yuan, Zhengqing, Huiwen Xue, Xinyi Wang, Yongming Liu, Zhuanzhe Zhao, 和 Kun Wang, Arxiv, 2023
[2023年10月31日] 我们发布了MiniGPT-v2的评估代码。
[2023年10月24日] 我们发布了MiniGPT-v2的微调代码。
[2023年10月13日] 重大更新!我们发布了MiniGPT-v2的第一个主要更新。
[2023年8月28日] 我们现在提供MiniGPT-4的llama 2版本。

![]() | ![]() |
![]() | ![]() |
更多示例可在项目页面找到。
1. 准备代码和环境
通过以下命令克隆我们的仓库,创建Python环境并激活它
git clone https://github.com/Vision-CAIR/MiniGPT-4.git cd MiniGPT-4 conda env create -f environment.yml conda activate minigptv
2. 准备预训练的LLM权重
MiniGPT-v2基于Llama2 Chat 7B。对于MiniGPT-4,我们 有Vicuna V0和Llama 2版本。 通过使用git-lfs克隆仓库从以下huggingface空间下载相应的LLM权重。
| Llama 2 Chat 7B | Vicuna V0 13B | Vicuna V0 7B |
|---|---|---|
| 下载 | 下载 | 下载 |
然后,在模型配置文件中将变量llama_model设置为LLM权重路径。
对于MiniGPT-v2,在此处第14行设置LLM路径。
对于MiniGPT-4(Llama2),在此处第15行设置LLM路径。
对于MiniGPT-4(Vicuna),在此处第18行设置LLM路径。
3. 准备预训练模型检查点
下载预训练模型检查点
| MiniGPT-v2(第2阶段后) | MiniGPT-v2(第3阶段后) | MiniGPT-v2(在线开发演示) |
|---|---|---|
| 下载 | 下载 | 下载 |
| 对于 MiniGPT-v2,在评估配置文件 eval_configs/minigptv2_eval.yaml 的第 8 行设置预训练检查点的路径。 |
| MiniGPT-4 (Vicuna 13B) | MiniGPT-4 (Vicuna 7B) | MiniGPT-4 (LLaMA-2 Chat 7B) |
|---|---|---|
| 下载 | 下载 | 下载 |
对于 MiniGPT-4,在评估配置文件中设置预训练检查点的路径。Vicuna 版本在 eval_configs/minigpt4_eval.yaml 的第 8 行,LLama2 版本在 eval_configs/minigpt4_llama2_eval.yaml。
对于 MiniGPT-v2,运行
python demo_v2.py --cfg-path eval_configs/minigptv2_eval.yaml --gpu-id 0
对于 MiniGPT-4(Vicuna 版本),运行
python demo.py --cfg-path eval_configs/minigpt4_eval.yaml --gpu-id 0
对于 MiniGPT-4(Llama2 版本),运行
python demo.py --cfg-path eval_configs/minigpt4_llama2_eval.yaml --gpu-id 0
为节省 GPU 内存,LLM 默认以 8 位加载,beam search 宽度为 1。此配置需要约 23G GPU 内存用于 13B LLM,11.5G GPU 内存用于 7B LLM。对于性能更强的 GPU,您可以通过在相关配置文件中将 low_resource 设置为 False 来以 16 位运行模型:
感谢 @WangRongsheng,您还可以在 Colab 上运行 MiniGPT-4。
有关 MiniGPT-4 的训练详情,请查看此处。
有关 MiniGPT-v2 的微调详情,请查看此处。
有关 MiniGPT-v2 的微调详情,请查看此处。
如果您在研究或应用中使用 MiniGPT-4/MiniGPT-v2,请使用以下 BibTeX 进行引用:
@article{chen2023minigptv2, title={MiniGPT-v2: large language model as a unified interface for vision-language multi-task learning}, author={Chen, Jun and Zhu, Deyao and Shen, Xiaoqian and Li, Xiang and Liu, Zechu and Zhang, Pengchuan and Krishnamoorthi, Raghuraman and Chandra, Vikas and Xiong, Yunyang and Elhoseiny, Mohamed}, year={2023}, journal={arXiv preprint arXiv:2310.09478}, } @article{zhu2023minigpt, title={MiniGPT-4: Enhancing Vision-Language Understanding with Advanced Large Language Models}, author={Zhu, Deyao and Chen, Jun and Shen, Xiaoqian and Li, Xiang and Elhoseiny, Mohamed}, journal={arXiv preprint arXiv:2304.10592}, year={2023} }
本仓库使用 BSD 3-Clause License。 许多代码基于 Lavis,其 BSD 3-Clause License 在此处。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换 ,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能 商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号