MetaCLIP

MetaCLIP

CLIP模型数据处理优化工具

MetaCLIP是一个改进CLIP模型数据处理的开源项目。它提出了一种新的数据筛选算法,无需依赖现有模型即可从头整理数据。该项目强调数据质量,提供了可扩展到CommonCrawl全数据集的方法。MetaCLIP公开训练数据分布,提高了透明度,并为CLIP模型提供标准化的实验设置,便于控制实验和公平比较。

MetaCLIPCLIP图像文本对预训练模型数据清洗Github开源项目

解密CLIP数据

Hugging Face Spaces Open In Colab

本仓库包含了MetaCLIP的代码,该方法在论文《解密CLIP数据》中被描述,将CLIP数据整理过程形式化为一个简单的算法。主要贡献包括:

  • 从头开始整理数据,无需通过先前模型进行筛选(与现有的开源努力不同,后者使用原始CLIP模型作为教师来筛选学生数据)。
  • 使训练数据更加透明,我们发布了我们的训练数据分布元数据
  • 在数据管道中运行的可扩展算法,允许将数据池扩展到整个CommonCrawl (CC),包含3000多亿图像-文本对。我们观察到数据质量比数量更加重要(与现有的开源努力ALIGN主要扩展数量不同);
  • 标准CLIP训练设置用于受控实验和在固定训练和模型配置下进行公平比较。

我们得出以下结论:

  • 有效的预训练数据应该最大限度地保留信号并减轻噪声,而不是通过黑盒过滤器硬性去除噪声,后者会导致未知的分布
  • 我们的算法更简单,可扩展到整个互联网的数据整理
  • 开源不仅仅是提供训练好的模型检查点,更重要的是预训练数据分布

MetaCLIP使用经过人脸模糊处理的图像进行训练。

@inproceedings{xu2023metaclip, title={Demystifying CLIP Data}, author={Hu Xu, Saining Xie, Xiaoqing Ellen Tan, Po-Yao Huang, Russell Howes, Vasu Sharma, Shang-Wen Li, Gargi Ghosh, Luke Zettlemoyer and Christoph Feichtenhofer}, journal={arXiv preprint arXiv:2309.16671}, year={2023} }

更新

快速链接

快速开始

预训练的MetaCLIP模型可在以下位置获取:

<details> <summary>[Huggingface](https://huggingface.co/models?other=metaclip)</summary>
from PIL import Image from transformers import AutoProcessor, AutoModel processor = AutoProcessor.from_pretrained("facebook/metaclip-b32-400m") model = AutoModel.from_pretrained("facebook/metaclip-b32-400m") image = Image.open("docs/CLIP.png") inputs = processor(text=["一张图表", "一只狗", "一只猫"], images=image, return_tensors="pt", padding=True) with torch.no_grad(): outputs = model(**inputs) logits_per_image = outputs.logits_per_image # 这是图像-文本相似度得分 text_probs = logits_per_image.softmax(dim=-1) print("标签概率:", text_probs)
</details> <details> <summary>[OpenCLIP](https://github.com/mlfoundations/open_clip)(或本仓库)</summary>
import torch from PIL import Image import open_clip model, _, preprocess = open_clip.create_model_and_transforms('ViT-B-32-quickgelu', pretrained='metaclip_400m') # 对于2.5B模型,在OpenCLIP中使用'metaclip_fullcc',或在本仓库中使用'metaclip_2_5b' image = preprocess(Image.open("docs/CLIP.png")).unsqueeze(0) text = open_clip.tokenize(["一张图表", "一只狗", "一只猫"]) with torch.no_grad(): image_features = model.encode_image(image) text_features = model.encode_text(text) image_features /= image_features.norm(dim=-1, keepdim=True) text_features /= text_features.norm(dim=-1, keepdim=True) text_probs = (100.0 * image_features @ text_features.T).softmax(dim=-1) print("标签概率:", text_probs)
</details>

预训练模型

所有MetaCLIP模型都遵循OpenAI CLIP的训练设置:我们希望在"CLIP时代的ImageNet"中恢复受控实验。具体来说,我们对所有模型配置使用OpenAI CLIP的quickgelu激活函数(这在较早版本的OpenCLIP中缺失,主要使用nn.GELU代替)。我们在本仓库中添加了ViT-B-16-quickgeluViT-L-14-quickgeluViT-H-14-quickgeluViT-bigG-14-quickgelu

模型名称预训练数据卡已见图像-文本对数量分辨率GPU数量IN零样本准确率
ViT-B-32-quickgelumetaclip_400m数据卡128亿22464 x V10065.5
ViT-B-16-quickgelumetaclip_400m数据卡128亿22464 x V10070.8
ViT-L-14-quickgelumetaclip_400m数据卡128亿224128 x V10076.2
ViT-B-32-quickgelumetaclip_2_5b数据卡128亿22464 x V10067.6
ViT-B-16-quickgelumetaclip_2_5b数据卡128亿22464 x V10072.1
ViT-L-14-quickgelumetaclip_2_5b数据卡128亿224128 x V10079.2
ViT-H-14-quickgelumetaclip_2_5b数据卡128亿224256 x A10080.5
ViT-bigG-14-quickgelumetaclip_2_5b数据卡128亿224256 x A10082.1

开发

此代码是基于 OpenCLIP 定制的,将单独维护用于 MetaCLIP 的研究。以下命令应安装 OpenCLIP 的requirements和本仓库使用的 submitit=1.2.1

conda create -n metaclip python=3.10 pytorch torchvision pytorch-cuda=11.7 tqdm ftfy braceexpand regex pandas submitit=1.2.1 \ -c pytorch-nightly \ -c nvidia \ -c conda-forge \ -c anaconda

元数据

MetaCLIP 使用 500,000 个查询作为元数据,将训练数据与维基百科/WordNet 术语的高质量写作分布对齐。这些元数据还允许我们将已发布模型的训练数据分布作为数据卡发布。

如何进行数据整理?

我们有一个演示笔记本来展示提出的算法如何工作。

我已经有一个(头部分布的)数据集

CLIP 整理仍然可以作为在线平衡帮助(论文中的表 6)。我们将 CLIP 整理包装在两个关键函数中:子串匹配(建议离线运行)和平衡(可离线或在线,请查看 metaclip.balancing:main)。

import json import numpy as np from metaclip.substr_matching import substr_matching from metaclip.balancing import balance_sampling with open("metadata.json") as f: metadata = json.load(f) # 我们的 1.6B(池) -> 400M(整理)的条目计数;请检查 balance_sampling:main 并在您自己的数据上进行子串匹配和计数。 with open("metaclip/entry_counts_400m.json") as f: entry_count_json = json.load(f) entry_count = np.array([entry_count_json[entry] for entry in metadata], dtype=np.uint64) # 使用 uint64 以确保安全缩放。 t = 20000 entry_count[entry_count < t] = t entry_prob = t / entry_count for text in ["jacksons chameleon", "battery plate"]: matched_entry_ids = substr_matching(text, metadata) # 这是为了演示目的重新进行子串匹配;请参阅 metaclip/README.md。 curation_prob = min(entry_prob[matched_entry_ids].sum(), 1.0) curated = balance_sampling(matched_entry_ids, entry_prob) print(f"[curation_prob={curation_prob:.3f}, curated={curated}] {text}")

我想从头开始整理数据

我们发布了一个用于从 CommonCrawl WAT 或 WARC 进行子串匹配平衡的骨架代码。详情请查看这里

Numpy 实现

算法的 Numpy 实现可以在 metaclip.pipeline 中找到,接近论文中使用的实现。

训练

python submitit_openclip.py b32_400m

请在 run_configs_400m.py 中配置相应的 training_data

构建您自己的元数据

考虑从我们用于构建 CLIP 的 500k 元数据的代码开始。

错误或问题?

如果您有任何与代码或论文相关的问题,请随时发邮件给 Hu Xu(huxu@meta.com)。

引用

如果 MetaCLIP 对您的工作有帮助,请引用我们的论文(被 ICLR2024 接受为聚光报告):

@inproceedings{xu2023metaclip, title={Demystifying CLIP Data}, author={Hu Xu, Saining Xie, Xiaoqing Ellen Tan, Po-Yao Huang, Russell Howes, Vasu Sharma, Shang-Wen Li, Gargi Ghosh, Luke Zettlemoyer and Christoph Feichtenhofer}, journal={arXiv preprint arXiv:2309.16671}, year={2023} }

参考

训练代码基于 OpenCLIP 开发,修改为原始 CLIP 训练设置。

待办事项

  • v0.1 代码发布;
  • 重构 openclip 为 v0.2;
  • pip 安装;
  • (欢迎您的用例或建议以定期更新此代码库)

许可证

MetaCLIP 的大部分内容均根据 CC-BY-NC 许可,但项目的某些部分可根据单独的许可条款使用:open_clip 根据 https://github.com/mlfoundations/open_clip 许可证授权。

致谢

我们衷心感谢 OpenCLIP 团队提供初始 CLIP 代码库和集成,以及 NielsRogge 将其集成到 Huggingface 中。

编辑推荐精选

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成AI工具AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机AI图像热门
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

下拉加载更多