MetaCLIP

MetaCLIP

CLIP模型数据处理优化工具

MetaCLIP是一个改进CLIP模型数据处理的开源项目。它提出了一种新的数据筛选算法,无需依赖现有模型即可从头整理数据。该项目强调数据质量,提供了可扩展到CommonCrawl全数据集的方法。MetaCLIP公开训练数据分布,提高了透明度,并为CLIP模型提供标准化的实验设置,便于控制实验和公平比较。

MetaCLIPCLIP图像文本对预训练模型数据清洗Github开源项目

解密CLIP数据

Hugging Face Spaces Open In Colab

本仓库包含了MetaCLIP的代码,该方法在论文《解密CLIP数据》中被描述,将CLIP数据整理过程形式化为一个简单的算法。主要贡献包括:

  • 从头开始整理数据,无需通过先前模型进行筛选(与现有的开源努力不同,后者使用原始CLIP模型作为教师来筛选学生数据)。
  • 使训练数据更加透明,我们发布了我们的训练数据分布元数据
  • 在数据管道中运行的可扩展算法,允许将数据池扩展到整个CommonCrawl (CC),包含3000多亿图像-文本对。我们观察到数据质量比数量更加重要(与现有的开源努力ALIGN主要扩展数量不同);
  • 标准CLIP训练设置用于受控实验和在固定训练和模型配置下进行公平比较。

我们得出以下结论:

  • 有效的预训练数据应该最大限度地保留信号并减轻噪声,而不是通过黑盒过滤器硬性去除噪声,后者会导致未知的分布
  • 我们的算法更简单,可扩展到整个互联网的数据整理
  • 开源不仅仅是提供训练好的模型检查点,更重要的是预训练数据分布

MetaCLIP使用经过人脸模糊处理的图像进行训练。

@inproceedings{xu2023metaclip, title={Demystifying CLIP Data}, author={Hu Xu, Saining Xie, Xiaoqing Ellen Tan, Po-Yao Huang, Russell Howes, Vasu Sharma, Shang-Wen Li, Gargi Ghosh, Luke Zettlemoyer and Christoph Feichtenhofer}, journal={arXiv preprint arXiv:2309.16671}, year={2023} }

更新

快速链接

快速开始

预训练的MetaCLIP模型可在以下位置获取:

<details> <summary>[Huggingface](https://huggingface.co/models?other=metaclip)</summary>
from PIL import Image from transformers import AutoProcessor, AutoModel processor = AutoProcessor.from_pretrained("facebook/metaclip-b32-400m") model = AutoModel.from_pretrained("facebook/metaclip-b32-400m") image = Image.open("docs/CLIP.png") inputs = processor(text=["一张图表", "一只狗", "一只猫"], images=image, return_tensors="pt", padding=True) with torch.no_grad(): outputs = model(**inputs) logits_per_image = outputs.logits_per_image # 这是图像-文本相似度得分 text_probs = logits_per_image.softmax(dim=-1) print("标签概率:", text_probs)
</details> <details> <summary>[OpenCLIP](https://github.com/mlfoundations/open_clip)(或本仓库)</summary>
import torch from PIL import Image import open_clip model, _, preprocess = open_clip.create_model_and_transforms('ViT-B-32-quickgelu', pretrained='metaclip_400m') # 对于2.5B模型,在OpenCLIP中使用'metaclip_fullcc',或在本仓库中使用'metaclip_2_5b' image = preprocess(Image.open("docs/CLIP.png")).unsqueeze(0) text = open_clip.tokenize(["一张图表", "一只狗", "一只猫"]) with torch.no_grad(): image_features = model.encode_image(image) text_features = model.encode_text(text) image_features /= image_features.norm(dim=-1, keepdim=True) text_features /= text_features.norm(dim=-1, keepdim=True) text_probs = (100.0 * image_features @ text_features.T).softmax(dim=-1) print("标签概率:", text_probs)
</details>

预训练模型

所有MetaCLIP模型都遵循OpenAI CLIP的训练设置:我们希望在"CLIP时代的ImageNet"中恢复受控实验。具体来说,我们对所有模型配置使用OpenAI CLIP的quickgelu激活函数(这在较早版本的OpenCLIP中缺失,主要使用nn.GELU代替)。我们在本仓库中添加了ViT-B-16-quickgeluViT-L-14-quickgeluViT-H-14-quickgeluViT-bigG-14-quickgelu

模型名称预训练数据卡已见图像-文本对数量分辨率GPU数量IN零样本准确率
ViT-B-32-quickgelumetaclip_400m数据卡128亿22464 x V10065.5
ViT-B-16-quickgelumetaclip_400m数据卡128亿22464 x V10070.8
ViT-L-14-quickgelumetaclip_400m数据卡128亿224128 x V10076.2
ViT-B-32-quickgelumetaclip_2_5b数据卡128亿22464 x V10067.6
ViT-B-16-quickgelumetaclip_2_5b数据卡128亿22464 x V10072.1
ViT-L-14-quickgelumetaclip_2_5b数据卡128亿224128 x V10079.2
ViT-H-14-quickgelumetaclip_2_5b数据卡128亿224256 x A10080.5
ViT-bigG-14-quickgelumetaclip_2_5b数据卡128亿224256 x A10082.1

开发

此代码是基于 OpenCLIP 定制的,将单独维护用于 MetaCLIP 的研究。以下命令应安装 OpenCLIP 的requirements和本仓库使用的 submitit=1.2.1

conda create -n metaclip python=3.10 pytorch torchvision pytorch-cuda=11.7 tqdm ftfy braceexpand regex pandas submitit=1.2.1 \ -c pytorch-nightly \ -c nvidia \ -c conda-forge \ -c anaconda

元数据

MetaCLIP 使用 500,000 个查询作为元数据,将训练数据与维基百科/WordNet 术语的高质量写作分布对齐。这些元数据还允许我们将已发布模型的训练数据分布作为数据卡发布。

如何进行数据整理?

我们有一个演示笔记本来展示提出的算法如何工作。

我已经有一个(头部分布的)数据集

CLIP 整理仍然可以作为在线平衡帮助(论文中的表 6)。我们将 CLIP 整理包装在两个关键函数中:子串匹配(建议离线运行)和平衡(可离线或在线,请查看 metaclip.balancing:main)。

import json import numpy as np from metaclip.substr_matching import substr_matching from metaclip.balancing import balance_sampling with open("metadata.json") as f: metadata = json.load(f) # 我们的 1.6B(池) -> 400M(整理)的条目计数;请检查 balance_sampling:main 并在您自己的数据上进行子串匹配和计数。 with open("metaclip/entry_counts_400m.json") as f: entry_count_json = json.load(f) entry_count = np.array([entry_count_json[entry] for entry in metadata], dtype=np.uint64) # 使用 uint64 以确保安全缩放。 t = 20000 entry_count[entry_count < t] = t entry_prob = t / entry_count for text in ["jacksons chameleon", "battery plate"]: matched_entry_ids = substr_matching(text, metadata) # 这是为了演示目的重新进行子串匹配;请参阅 metaclip/README.md。 curation_prob = min(entry_prob[matched_entry_ids].sum(), 1.0) curated = balance_sampling(matched_entry_ids, entry_prob) print(f"[curation_prob={curation_prob:.3f}, curated={curated}] {text}")

我想从头开始整理数据

我们发布了一个用于从 CommonCrawl WAT 或 WARC 进行子串匹配平衡的骨架代码。详情请查看这里

Numpy 实现

算法的 Numpy 实现可以在 metaclip.pipeline 中找到,接近论文中使用的实现。

训练

python submitit_openclip.py b32_400m

请在 run_configs_400m.py 中配置相应的 training_data

构建您自己的元数据

考虑从我们用于构建 CLIP 的 500k 元数据的代码开始。

错误或问题?

如果您有任何与代码或论文相关的问题,请随时发邮件给 Hu Xu(huxu@meta.com)。

引用

如果 MetaCLIP 对您的工作有帮助,请引用我们的论文(被 ICLR2024 接受为聚光报告):

@inproceedings{xu2023metaclip, title={Demystifying CLIP Data}, author={Hu Xu, Saining Xie, Xiaoqing Ellen Tan, Po-Yao Huang, Russell Howes, Vasu Sharma, Shang-Wen Li, Gargi Ghosh, Luke Zettlemoyer and Christoph Feichtenhofer}, journal={arXiv preprint arXiv:2309.16671}, year={2023} }

参考

训练代码基于 OpenCLIP 开发,修改为原始 CLIP 训练设置。

待办事项

  • v0.1 代码发布;
  • 重构 openclip 为 v0.2;
  • pip 安装;
  • (欢迎您的用例或建议以定期更新此代码库)

许可证

MetaCLIP 的大部分内容均根据 CC-BY-NC 许可,但项目的某些部分可根据单独的许可条款使用:open_clip 根据 https://github.com/mlfoundations/open_clip 许可证授权。

致谢

我们衷心感谢 OpenCLIP 团队提供初始 CLIP 代码库和集成,以及 NielsRogge 将其集成到 Huggingface 中。

编辑推荐精选

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

下拉加载更多