Anole实现图文交错生成的开源多模态模型
Anole是一款开源的大型多模态模型, 具备图文交错生成能力。该模型通过微调约6000张图像数据集,在Chameleon基础上实现了图像生成和理解功能。Anole支持文本到图像生成、图文交错生成、文本生成和多模态理解,为多模态AI研究提供了新的可能性。
Anole是首个开源、自回归且原生训练的大型多模态模型,能够进行交错图像-文本生成(无需使用稳定扩散)。虽然它建立在Chameleon的优势之上,但Anole在生成连贯的交替文本和图像序列这一复杂任务上表现出色。通过使用精心策划的约6,000张图像数据集进行创新的微调过程,Anole以最少的额外训练实现了卓越的图像生成和理解能力。这种高效的方法,加上其开源性质,使Anole成为加速多模态AI研究和开发的催化剂。初步测试表明,Anole在遵循细微指令方面表现出色,能够生成高质量的图像和交错的文本-图像内容,与用户提示紧密一致。
Anole的主要功能如下:
其中粗体表示在Chameleon基础上新增的功能。
为了更好地展示Anole的能力,这里提供一些性能示例。
[!注意]
我们已提供开源模型权重、代码和详细教程,以确保每个人都能复现这些结果,甚至微调模型以创建自己的风格变体。(技术民主化一直是我们的目标。)
交错图像-文本生成
文本到图像
更多示例
<details> <summary>点击展开</summary>根据可用信息和我们的测试,Chameleon的最新版本在文本理解、文本生成和多模态理解方面表现出色。Anole基于Chameleon构建,旨在促进Chameleon的图像生成和多模态生成能力。
<p align="center" width="100%"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/0e2ff5b2-b628-43af-88ac-826cd0f1d5a5.png" alt="Anole-Main" style="width: 100%; min-width: 300px; display: block; margin: auto;"> </p>Chameleon的预训练数据原生包含文本和图像两种模态,理论上具备图像生成能力。我们的目标是促进这种能力,同时不影响其文本理解、生成和多模态理解能力。为实现这一目标,我们冻结了Chameleon的大部分参数,仅微调了transformer输出头
层中与图像标记ID对应的logits。
具体而言,Anole-7b-v0.1使用少量图像数据(5,859张图像,约600万个图像标记)开发,仅在少量参数(不到40M)上进行微调,用时很短(在8个A100 GPU上约30分钟)。尽管如此,Anole-7b-v0.1展现出令人印象深刻的图像生成能力。
我们承诺持续更新Anole以增强其能力。
git lfs install git clone https://huggingface.co/GAIR/Anole-7b-v0.1
或
huggingface-cli download --resume-download GAIR/Anole-7b-v0.1 --local-dir Anole-7b-v0.1 --local-dir-use-symlinks False
chameleon
分支安装transformers
(已包含在本仓库中),安装chameleon库,以及其他依赖git clone https://github.com/GAIR-NLP/anole.git
cd anole
bash install.sh
我们的推理代码基于Meta Chameleon,经过优化和加速以提高推理效率。它还包括一个用于调试的可视化查看器。