T2I-CompBench

T2I-CompBench

组合式文本到图像生成的全面评估基准

T2I-CompBench++是一个用于评估组合式文本到图像生成的增强基准。它引入了人工评估图像-分数对、更全面的组合测试以及被Stable Diffusion 3等模型采用的新评估指标。该基准涵盖颜色、形状、纹理和空间关系等多个方面,通过多种方法全面衡量模型的组合能力。研究人员可利用此基准进行模型训练和评估,促进组合式图像生成技术的进步。

T2I-CompBench++文本生成图像评估基准组合能力AI模型Github开源项目

T2I-CompBench++:增强版全面的组合式文本到图像生成基准测试

Kaiyi Huang<sup>1</sup>、Chengqi Duan<sup>3</sup>、Kaiyue Sun<sup>1</sup>、Enze Xie<sup>2</sup>、Zhenguo Li<sup>2</sup>和Xihui Liu<sup>1</sup>

<sup>1</sup>香港大学, <sup>2</sup>华为诺亚方舟实验室, <sup>3</sup>清华大学

<a href='https://karine-h.github.io/T2I-CompBench-new/'><img src='https://img.shields.io/badge/项目-主页-Green'></a> <a href='https://github.com/Karine-Huang/T2I-CompBench/blob/main/paper/T2I_CompBench%2B%2B.pdf'><img src='https://img.shields.io/badge/T2I--CompBench++-论文-red'></a> <a href='https://arxiv.org/pdf/2307.06350.pdf'><img src='https://img.shields.io/badge/T2I--CompBench-Arxiv-red'></a> <a href='https://connecthkuhk-my.sharepoint.com/:f:/g/personal/huangky_connect_hku_hk/Er_BhrcMwGREht6gnKGIErMBx8H8yRXLDfWgWQwKaObQ4w?e=YzT5wG'><img src='https://img.shields.io/badge/数据集-T2I--CompBench++-blue'></a> <a href='https://connecthkuhk-my.sharepoint.com/:u:/g/personal/huangky_connect_hku_hk/EfZUFShvGCdArofWOUHXkTgBjcemz2jN6VPmd8tM8mhjeQ?e=NsdFjK'><img src='https://img.shields.io/badge/数据集-人工评估图像-purple'></a>

🚩 新特性/更新

  • ✅ 2024年6月27日。发布图像-分数对的人工评估
  • ✅ 2024年3月14日。发布更全面的组合式基准测试 T2I-CompBench++。
  • ✅ 2024年3月5日。💥 评估指标被 🧨 Stable Diffusion 3 采用。
  • ✅ 2023年12月2日。发布用于指标评估的图像生成推理代码。
  • ✅ 2023年10月20日。💥 评估指标被 🧨 DALL-E 3 作为组合性评估指标采用。
  • ✅ 2023年9月30日。💥 评估指标被 🧨 PixArt-α 作为组合性评估指标采用。
  • ✅ 2023年9月22日。💥 论文被Neurips 2023接收。
  • ✅ 2023年7月9日。发布数据集、训练和评估代码。

安装依赖

在运行脚本之前,请确保安装库的训练依赖项:

重要提示

我们建议使用最新代码以确保与论文中呈现的结果一致。为确保您可以成功运行示例脚本,请在新的虚拟环境中执行以下步骤。 我们使用的diffusers版本0.15.0.dev0 您可以从PyPI安装开发版本:

pip install diffusers==0.15.0.dev0

或从提供的源代码安装:

unzip diffusers.zip cd diffusers pip install .

然后进入示例文件夹并运行

pip install -r requirements.txt

并使用以下命令初始化🤗Accelerate环境:

accelerate config

微调

  1. LoRA微调

使用LoRA微调方法,请参考以下链接下载"lora_diffusion"目录:

https://github.com/cloneofsimo/lora/tree/master
  1. 示例用法
export project_dir=/T2I-CompBench
cd $project_dir

export train_data_dir="examples/samples/"
export output_dir="examples/output/"
export reward_root="examples/reward/"
export dataset_root="examples/dataset/color.txt"
export script=GORS_finetune/train_text_to_image.py

accelerate launch --multi_gpu --mixed_precision=fp16 \
--num_processes=8 --num_machines=1 \
--dynamo_backend=no "${script}" \
--train_data_dir="${train_data_dir}" \
--output_dir="${output_dir}" \
--reward_root="${reward_root}" \
--dataset_root="${dataset_root}"

或运行

cd T2I-CompBench
bash GORS_finetune/train.sh

图像目录应该是包含图像的目录,例如:

examples/samples/
        ├── a green bench and a blue bowl_000000.png
        ├── a green bench and a blue bowl_000001.png
        └──...

奖励目录应包含一个名为"vqa_result.json"的json文件,该json文件应是一个从{"question_id", "answer"}映射的字典,例如:

[{"question_id": 0, "answer": "0.7110"},
 {"question_id": 1, "answer": "0.7110"},
 ...]

数据集应放在"examples/dataset/"目录中。

评估

  1. 安装要求

MiniGPT4和ShareGPT4V基于它们的仓库,请参考以下链接获取环境依赖和权重:

https://github.com/Vision-CAIR/MiniGPT-4
https://github.com/InternLM/InternLM-XComposer/tree/main/projects/ShareGPT4V

为方便起见,您可以尝试以下命令来安装ShareGPT4V的环境并下载所需的权重。

export project_dir=MLLM_eval/ShareGPT4V-CoT_eval/
cd $project_dir
conda create -n share4v python=3.10 -y
conda activate share4v
pip install --upgrade pip
pip install -e .
pip install -e ".[train]"
pip install flash-attn --no-build-isolation
pip install spacy
python -m spacy download en_core_web_sm
mkdir -p Lin-Chen/
cd Lin-Chen/
git lfs install
git clone https://huggingface.co/Lin-Chen/ShareGPT4V-7B_Pretrained_vit-large336-l12
  1. 示例用法

对于评估,输入图像文件存储在"examples/samples/"目录中,格式与训练数据相同。

BLIP-VQA:

export project_dir="BLIPvqa_eval/"
cd $project_dir
out_dir="../examples/"
python BLIP_vqa.py --out_dir=$out_dir

或运行

cd T2I-CompBench
bash BLIPvqa_eval/test.sh

输出文件格式化为"examples/annotation_blip/"目录中名为"vqa_result.json"的json文件。

UniDet:

下载权重并放在repo experts/expert_weights下:

mkdir -p UniDet_eval/experts/expert_weights
cd UniDet_eval/experts/expert_weights
wget https://huggingface.co/shikunl/prismer/resolve/main/expert_weights/Unified_learned_OCIM_RS200_6x%2B2x.pth
wget https://huggingface.co/lllyasviel/ControlNet/resolve/main/annotator/ckpts/dpt_hybrid-midas-501f0c75.pt
pip install gdown
gdown https://docs.google.com/uc?id=1C4sgkirmgMumKXXiLOPmCKNTZAc3oVbq

对于**2D空间**评估,运行:

export project_dir=UniDet_eval cd $project_dir

python 2D_spatial_eval.py

要计算来自**"复杂"类别**的提示,将**"--complex"参数设置为True**;否则,将其设置为False。输出文件以json文件格式保存为"examples/labels/annotation_obj_detection_2d"目录中的"vqa_result.json"。

对于**数值**评估,运行:

export project_dir=UniDet_eval cd $project_dir

python numeracy_eval.py

输出文件以json文件格式保存为"examples/annotation_num"目录中的"vqa_result.json"。

对于**3D空间**评估,运行:

export project_dir=UniDet_eval cd $project_dir python 3D_spatial_eval.py

输出文件以json文件格式保存为"examples/labels/annotation_obj_detection_3d"目录中的"vqa_result.json"。

#### CLIPScore:

outpath="examples/" python CLIPScore_eval/CLIP_similarity.py --outpath=${outpath}

或运行

cd T2I-CompBench bash CLIPScore_eval/test.sh

要计算来自**"复杂"类别**的提示,将**"--complex"参数设置为True**;否则,将其设置为False。
输出文件以json文件格式保存为"examples/annotation_clip"目录中的"vqa_result.json"。

#### 3合1:

export project_dir="3_in_1_eval/" cd $project_dir outpath="../examples/" python "3_in_1.py" --outpath=${outpath}

输出文件以json文件格式保存为"examples/annotation_3_in_1"目录中的"vqa_result.json"。

#### MLLM评估:

##### GPT-4V:

在第13行添加你的openai api密钥[(说明)](https://help.openai.com/en/articles/4936850-where-do-i-find-my-openai-api-key)。

export project_dir=MLLM_eval cd $project_dir python MLLM_eval/gpt4v_eval.py --category "color" --start 0 --step 10


输出文件以json文件格式保存为"examples/gpt4v"目录中的"gpt4v_result\_{start}\_{step}.json"。

在论文中,我们测试了600张图像,设置{start=0, step=10}和{start=1, step=10},从每个类别现有的3000张图像中选取。

##### ShareGPT4V-CoT:
对于ShareGPT4V评估,运行以下命令:

export project_dir=MLLM_eval/ShareGPT4V-CoT_eval/ cd $project_dir category="color" output_path="../../examples/" python Share_eval.py --category ${category} --file-path ${output_path} --cot

输出文件以json文件格式保存为"examples/sharegpt4v"目录中的"vqa_result.json"。

##### MiniGPT4-CoT:
如果要评估的类别是颜色、形状和纹理之一:

export project_dir=MLLM_eval/MiniGPT4-CoT_eval/ cd $project_dir category="color" img_file="../../examples/samples/" output_path="../../examples/" python mGPT_cot_attribute.py --category=${category} --img_file=${img_file} --output_path=${output_path}


如果要评估的类别是空间、非空间和复杂之一:

export project_dir=MLLM_eval/MiniGPT4_CoT_eval/ cd $project_dir category="non-spatial" img_file="../../examples/samples/" output_path="../../examples" python mGPT_cot_general.py --category=${category} --img_file=${img_file} --output_path=${output_path}

输出文件以csv文件格式保存为output_path中的"mGPT_cot_output.csv"。

### 推理
运行inference.py来可视化图像。

export pretrained_model_path="checkpoint/color/lora_weight_e357_s124500.pt.pt" export prompt="A bathroom with green tile and a red shower curtain" python inference.py --pretrained_model_path "${pretrained_model_path}" --prompt "${prompt}"

**生成用于指标计算的图像。** 运行inference_eval.py来生成测试集中的图像。如论文所述,每个提示生成10张图像用于**指标计算**,我们在所有方法中使用固定的种子。
你可以通过更改"from_file"参数在{color_val.txt, shape_val.txt, texture_val.txt, spatial_val.txt, non_spatial_val.txt, complex_val.txt}中指定测试集。

export from_file="../examples/dataset/color_val.txt" python inference_eval.py --from_file "${from_file}"


### 引用
如果您在研究或应用中使用T2I-CompBench,请使用以下BibTeX进行引用:
```bibtex
@article{huang2023t2icompbench,
      title={T2I-CompBench: A Comprehensive Benchmark for Open-world Compositional Text-to-image Generation}, 
      author={Kaiyi Huang and Kaiyue Sun and Enze Xie and Zhenguo Li and Xihui Liu},
      journal={arXiv preprint arXiv:2307.06350},
      year={2023},
}

许可

本项目采用MIT许可证。详情请参阅"License.txt"文件。

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多