
多 模态AI模型实现文本到图像的灵活生成
Lumina-mGPT是一个多模态自回归模型系列,适用于多种视觉和语言任务。这个开源项目特别擅长将文本描述转化为逼真图像,提供7B和34B两种参数规模的模型,以及多种图像分辨率选项。除图像生成外,Lumina-mGPT还支持图像理解和全能型任务,为AI研究和应用开发提供了灵活的工具。
<b> 一系列能够执行各种视觉和语言任务的多模态自回归模型,特别擅长根据文本描述生成灵活的逼真图像。👋 加入我们的<a href="http://imagebind-llm.opengvlab.com/qrcode/" target="_blank">微信</a> </b>
</div> <img src="https://yellow-cdn.veclightyear.com/835a84d5/5091c6c8-5f4b-45be-bda3-0fd5295ab1a0.png">[2024-08-11] 🎉🎉🎉 训练代码和文档已发布!🎉🎉🎉
[2024-07-08] 🎉🎉🎉 Lumina-mGPT 已发布!🎉🎉🎉
详细说明请参见 INSTALL.md。
请注意,Lumina-mGPT 的实现heavily依赖于xllmx模块,该模块由LLaMA2-Accessory演变而来,用于支持以LLM为中心的多模态任务。在继续之前,请确保它已正确安装为Python包。
[!注意]
在使用Lumina-mGPT模型之前,请运行
# bash cd lumina_mgpt进入Lumina-mGPT实现的目录。
由于目前transformers中的Chameleon实现不包含VQ-VAE解码器,请手动下载Meta提供的原始VQ-VAE权重,并将它们放在以下目录中:
Lumina-mGPT
- lumina_mgpt/
- ckpts/
- chameleon/
- tokenizer/
- text_tokenizer.json
- vqgan.yaml
- vqgan.ckpt
- xllmx/
- ...
我们准备了三个不同的Gradio演示,每个演示都展示了独特的功能,以帮助您快速熟悉Lumina-mGPT模型的能力。
这个演示专门用于图像生成任务,您可以输入文本描述并生成相应的图像。 要启动这个演示,请运行:
# 注意将`--target_size`参数设置为与检查点一致 python -u demos/demo_image_generation.py \ --pretrained_path Alpha-VLLM/Lumina-mGPT-7B-768 \ --target_size 768
这个演示是为使用Omni-SFT训练的模型设计的。您可以使用此演示方便地在多个下游任务之间切换。
# 注意将`--target_size`参数设置为与检查点一致 python -u demos/demo_image2image.py \ --pretrained_path Alpha-VLLM/Lumina-mGPT-7B-768-Omni \ --target_size 768
这是一个对输入格式限制最少的强大演示。它支持灵活的交互,适合深入探索。
# 注意将`--target_size`参数设置为与检查点一致 python -u demos/demo_freeform.py \ --pretrained_path Alpha-VLLM/Lumina-mGPT-7B-768-Omni \ --target_size 768
Lumina-mGPT推理的最简单代码:
from inference_solver import FlexARInferenceSolver from PIL import Image # ******************** 图像生成 ******************** inference_solver = FlexARInferenceSolver( model_path="Alpha-VLLM/Lumina-mGPT-7B-768", precision="bf16", target_size=768, ) q1 = f"根据以下提示生成一张768x768的图像:\n" f"一只狗在玩水,背景是瀑布的图像。" # generated: 元组,包含(生 成的响应, 生成的图像列表) generated = inference_solver.generate( images=[], qas=[[q1, None]], max_gen_len=8192, temperature=1.0, logits_processor=inference_solver.create_logits_processor(cfg=4.0, image_top_k=2000), ) a1, new_image = generated[0], generated[1][0] # ******************* 图像理解 ****************** inference_solver = FlexARInferenceSolver( model_path="Alpha-VLLM/Lumina-mGPT-7B-512", precision="bf16", target_size=512, ) # "<|image|>"符号在输入LLM之前会被替换为图像token序列 q1 = "详细描述这张图像。<|image|>" images = [Image.open("image.png")] qas = [[q1, None]] # `len(images)`应等于qas中"<|image|>"出现的次数 generated = inference_solver.generate( images=images, qas=qas, max_gen_len=8192, temperature=1.0, logits_processor=inference_solver.create_logits_processor(cfg=4.0, image_top_k=2000), ) a1 = generated[0] # generated[1],即新生成的图像列表,在这种情况下通常应该是空的。 # ********************* 全能模式 ********************* inference_solver = FlexARInferenceSolver( model_path="Alpha-VLLM/Lumina-mGPT-7B-768-Omni", precision="bf16", target_size=768, ) # 示例:深度估计 # 更多说明请参见demos/demo_image2image.py q1 = "深度估计。<|image|>" images = [Image.open("image.png")] qas = [[q1, None]] generated = inference_solver.generate( images=images, qas=qas, max_gen_len=8192, temperature=1.0, logits_processor=inference_solver.create_logits_processor(cfg=1.0, image_top_k=200), ) a1 = generated[0] new_image = generated[1][0]
配置
<img src="https://yellow-cdn.veclightyear.com/835a84d5/9bd6280d-0c1a-416b-bc98-500499622739.jpg"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/b251c7ec-6fb9-4ff0-b532-9f6699ae2e19.jpg">7B模型
| 模型 | 大小 | Huggingface |
|---|---|---|
| FP-SFT@512 | 7B | Alpha-VLLM/Lumina-mGPT-7B-512 |
| FP-SFT@768 | 7B | Alpha-VLLM/Lumina-mGPT-7B-768 |
| Omni-SFT@768 | 7B | Alpha-VLLM/Lumina-mGPT-7B-768-Omni |
| FP-SFT@1024 | 7B | Alpha-VLLM/Lumina-mGPT-7B-1024 |
34B模型
| 模型 | 大小 | Huggingface |
|---|---|---|
| FP-SFT@512 | 34B | Alpha-VLLM/Lumina-mGPT-34B-512 |
更多检查点即将推出。
我们正在上海人工智能实验室的通用视觉组招聘实习生、博士后和全职研究人员,重点关注多模态和视觉基础模型。如果您感兴趣,请联系gaopengcuhk@gmail.com。
@misc{liu2024lumina-mgpt,
title={Lumina-mGPT: Illuminate Flexible Photorealistic Text-to-Image Generation with Multimodal Generative Pretraining},
author={Dongyang Liu and Shitian Zhao and Le Zhuo and Weifeng Lin and Yu Qiao and Hongsheng Li and Peng Gao},
year={2024},
eprint={2408.02657},
archivePrefix={arXiv},
primaryClass={cs.CV},
url={https://arxiv.org/abs/2408.02657},
}


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许 用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号