Open-MAGVIT2

Open-MAGVIT2

自回归视觉生成新突破 大幅提升图像分词性能

Open-MAGVIT2是一个创新的自回归视觉生成项目,采用无查找技术和262144大小的码本,克服了VQGAN的局限性。该项目用PyTorch重新实现MAGVIT2分词器,在图像分词方面取得显著进展,8倍下采样时rFID达到0.39。项目致力于推动自回归视觉生成领域发展,目前处于积极开发阶段,未来计划拓展至视频生成领域。

Open-MAGVIT2视觉生成图像分词器自回归模型大规模词表Github开源项目

Open-MAGVIT2: 民主化自回归视觉生成

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/5e8746de-882d-4c6e-b5b1-48d5fa601b92.png" height=300> </p>

尽管VQGAN在码本大小和利用率方面存在限制,低估了其潜力,但它在自回归视觉生成中仍然至关重要。MAGVIT2通过无查找技术和大型码本($2^{18}$)解决了这些问题,在图像和视频生成方面展现了promising的结果,并在VideoPoet中发挥了关键作用。然而,我们目前无法获取这个分词器。:broken_heart:

在我们的代码库中,我们用PyTorch重新实现了MAGVIT2分词器,closely复现了原始结果。我们希望我们的努力能够在自回归视觉生成领域促进创新和创造力。:green_heart:

📰 新闻

  • [2024.06.17] :fire::fire::fire: 我们发布了图像分词器的训练代码和不同分辨率的检查点,与VQGAN、MaskGIT以及最近的TiTok、LlamaGen和OmniTokenizer相比,达到了最先进的性能(8倍下采样的rFID为0.39)

🎤 待办事项

  • 通过扩大训练规模改进图像分词器。
  • 完成自回归模型的训练。
  • 视频分词器及相应的自回归模型。

🤗 Open-MAGVIT2仍处于早期阶段,正在积极开发中。敬请期待更新!

📖 实现

图1. Open-MAGVIT2分词器的框架,由编码器、无查找量化器(LFQ)和解码器组成。

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/273be3cc-8d8b-47a4-94e7-c71d0781a6da.png"> </p>

🛠️ 安装

  • 环境:我们已在Python 3.8.8CUDA 11.7上测试过(其他版本也可能适用)。
  • 依赖项pip install -r requirements
  • 数据集
imagenet
└── train/
    ├── n01440764
        ├── n01440764_10026.JPEG
        ├── n01440764_10027.JPEG
        ├── ...
    ├── n01443537
    ├── ...
└── val/
    ├── ...

第一阶段:视觉分词器的训练

我们遵循MAGVIT-2中生成器的设计,但在GAN训练中使用PatchGAN而非StyleGAN作为判别器。我们结合了MAGVIT-2和VQGAN中使用的损失函数,以获得更好的训练稳定性和重建质量。所有训练细节可在配置文件中找到。请注意,我们使用32个V100进行模型训练。

🍺 定量比较

表1. 不同分词器在256×256 ImageNet 50k验证集上的重建性能。Open-MAGVIT2在不同下采样率上达到了最先进的结果。

方法标记类型标记数训练数据码本大小rFIDPSNR码本利用率检查点
VQGAN2D16 × 16256 × 256 ImageNet10247.9419.4--
SD-VQGAN2D16 × 16OpenImages163845.15---
MaskGIT2D16 × 16256 × 256 ImageNet10242.28---
LlamaGen2D16 × 16256 × 256 ImageNet163842.1920.7997%-
:fire:Open-MAGVIT22D16 × 16256 × 256 ImageNet2621441.5321.53100%IN256_Base
ViT-VQGAN2D32 × 32256 × 256 ImageNet81921.28---
VQGAN2D32 × 32OpenImages163841.1923.38--
SD-VQGAN2D32 × 32OpenImages163841.14---
OmniTokenizer-VQ2D32 × 32256 × 256 ImageNet81921.11---
LlamaGen2D32 × 32256 × 256 ImageNet163840.5924.45--
:fire:Open-MAGVIT2*2D32 × 32128 × 128 ImageNet2621440.3925.78100%IN128_Base
SD-VQGAN2D64 × 64OpenImages163840.58---
TiTok-L1D32256 × 256 ImageNet40962.21---
TiTok-B1D64256 × 256 ImageNet40961.70---
TiTok-S1D128256 × 256 ImageNet40961.71---

(*)表示结果来自直接使用128×128分辨率训练的模型进行推理,未经微调。 表2. 通过在128×128分辨率下训练和测试,与原始MAGVIT2进行比较,如其原始论文中所使用。使用ImageNet 50k验证集进行测试。

方法令牌类型令牌数量数据LFQ大型码本上/下采样器rFIDURL
MAGVIT22D16×16128×128 ImageNet1.21-
Open-MAGVIT22D16×16128×128 ImageNet1.56IN128_Base

:eyes: 重建可视化

图2. 在256×256分辨率下训练并在256×256分辨率下测试的Open-MAGVIT2分词器的可视化效果(imagenet_256_Base版本)。(a)表示原始图像,而(b)表示重建图像。

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/0cc87856-5a42-49ba-8a4a-648fca533e91.png"> </p>

图3. 在128×128分辨率下训练并在512×512分辨率下测试的Open-MAGVIT2分词器的可视化效果(imagenet_128_Base版本)。(a)表示原始图像,而(b)表示重建图像。

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/d52806bf-678f-48e3-9128-908fd436403b.png"> </p>

🚀 训练脚本

  • 128×128分词器训练
bash run_128_B.sh
  • 256×256分词器训练
bash run_256_B.sh

🚀 评估脚本

  • 128×128分词器评估
python evaluation.py --config_file configs/imagenet_lfqgan_128_B.yaml --ckpt_path "Your Path" --image_size 128
  • 256×256分词器评估
python evaluation.py --config_file configs/imagenet_lfqgan_256_B.yaml --ckpt_path "Your Path" --image_size 256

阶段II: 自回归生成训练

MAGVIT2使用非自回归transformer进行图像生成。相反,我们希望利用相对较大的码本来探索自回归视觉生成的潜力。我们目前正在探索阶段II的训练。

❤️ 致谢

我们感谢Lijun Yu的鼓励性讨论。我们参考了很多来自VQGAN和MAGVIT的内容。感谢他们出色的工作。

✏️ 引用

如果您发现这个代码库有帮助,请引用它。

@software{Luo_Open-MAGVIT2_2024,
author = {Luo, Zhuoyan and Shi, Fengyuan and Ge, Yixiao},
month = jun,
title = {{Open-MAGVIT2}},
url = {https://github.com/TencentARC/Open-MAGVIT2},
version = {1.0},
year = {2024}
}

@inproceedings{
yu2024language,
title={Language Model Beats Diffusion - Tokenizer is key to visual generation},
author={Lijun Yu and Jose Lezama and Nitesh Bharadwaj Gundavarapu and Luca Versari and Kihyuk Sohn and David Minnen and Yong Cheng and Agrim Gupta and Xiuye Gu and Alexander G Hauptmann and Boqing Gong and Ming-Hsuan Yang and Irfan Essa and David A Ross and Lu Jiang},
booktitle={The Twelfth International Conference on Learning Representations},
year={2024},
url={https://openreview.net/forum?id=gzqrANCF4g}
}

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多