[新消息!] GAN 压缩已被 T-PAMI 接收! 我们在 arXiv v4 发布了 T-PAMI 版本!
[新消息!] 我们发布了交互式演示的代码,并包含了用 TVM 调优的模型。现在在 Jetson Nano GPU 上可以达到 8FPS 的速度!
[新消息!] 新增对 MUNIT 的支持,这是一种多模态无监督图像到图像转换方法! 请按照测试命令测试预训练模型,并参考教程训练您自己的模型!
我们提出了 GAN 压缩,这是一种压缩条件 GAN 的通用方法。我们的方法可以将广泛使用的条件 GAN 模型(包括 pix2pix、CycleGAN、MUNIT 和 GauGAN)的计算量减少 9-29 倍,同时保持视觉保真度。我们的方法对各种生成器架构、学习目标以及配对和非配对设置都非常有效。
GAN 压缩: 面向交互式条件 GAN 的高效架构<br> 李牧阳、林吉、丁瑶瑶、刘志坚、朱俊彦和韩松<br> 麻省理工学院、Adobe 研究院、上海交通大学<br> CVPR 2020 会议论文。
GAN 压缩框架: ① 给定一个预训练的教师生成器 G',我们通过权重共享蒸馏出一个更小的"一劳永逸"学生生成器 G,其中包含所有可能的通道数。我们在每个训练步骤中为学生生成器 G 选择不同的通道数。② 然后,我们从"一劳永逸"生成器中提取许多子生成器并评估它们的性能。无需重新训练,这是"一劳永逸"生成器的优势。③ 最后,我们根据压缩比目标和性能目标(FID 或 mIoU),使用暴力搜索或进化搜索方法选择最佳子生成器。可选地,我们进行额外的微调,得到最终的压缩模型。
GAN 压缩将 pix2pix、cycleGAN 和 GauGAN 的计算量减少了 9-21 倍,模型大小减少了 4.6-33 倍。
PyTorch Colab 笔记本: CycleGAN 和 pix2pix。
克隆此仓库:
[object Object],[object Object],[object Object],[object Object]
安装 PyTorch 1.4 和其他依赖项(如 torchvision)。
pip install -r requirements.txt
。scripts/conda_deps.sh
。或者,您可以使用 conda env create -f environment.yml
创建新的 Conda 环境。下载 CycleGAN 数据集(例如,horse2zebra)。
[object Object],[object Object]
获取数据集真实图像的统计信息以计算 FID。我们为几个数据集提供了预准备的真实统计信息。例如,
[object Object],[object Object],[object Object],[object Object]
下载预训练模型。
[object Object]
测试原始完整模型。
[object Object],[object Object]
测试压缩模型。
[object Object],[object Object]
测量两个模型的延迟。
[object Object],[object Object],[object Object],[object Object]
由于我们重新训练了模型,上述模型的结果可能与论文中的结果略有不同。我们还发布了论文中的压缩模型。如果存在这样的不一致,您可以尝试以下命令来测试我们的论文模型:
[object Object],[object Object],[object Object],[object Object],[object Object]
下载 pix2pix 数据集(例如,edges2shoes)。
[object Object],[object Object]
获取数据集真实图像的统计信息以计算 FID。我们为几个数据集提供了预准备的真实统计信息。例如,
[object Object],[object Object],[object Object],[object Object]
下载预训练模型。
[object Object]
测试原始完整模型。
[object Object],[object Object]
测试压缩模型。
[object Object],[object Object]
测量两个模型的延迟。
[object Object],[object Object],[object Object],[object Object]
由于我们重新训练了模型,上述模型的结果可能与论文中的结果略有不同。我们还发布了论文中的压缩模型。如果存在这样的不一致,您可以尝试以下命令来测试我们的论文模型:
[object Object],[object Object],[object Object],[object Object],[object Object]
准备 cityscapes 数据集。查看此处以准备 cityscapes 数据集。
获取数据集真实图像的统计信息以计算 FID。我们为几个数据集提供了预准备的真实统计信息。例如,
[object Object],[object Object]
下载预训练模型。
[object Object]
测试原始完整模型。
[object Object],[object Object]
测试压缩模型。
[object Object],[object Object]
测量两个模型的延迟。
[object Object],[object Object],[object Object],[object Object]
由于我们重新训练了模型,上述模型的结果可能与论文中的结果略有不同。我们还发布了论文中的压缩模型。如果存在这样的不一致,您可以尝试以下命令来测试我们的论文模型:
[object Object],[object Object],[object Object],[object Object],[object Object]
准备数据集(如edges2shoes-r)。
[object Object],[object Object]
获取数据集真实图像的统计信息以计算FID。我们为多个数据集提供了预先准备好的真实统计数据。例如:
[object Object],[object Object],[object Object],[object Object]
下载预训练模型。
[object Object]
测试原始完整模型。
[object Object],[object Object]
测试压缩模型。
[object Object],[object Object]
测量两个模型的延迟。
[object Object],[object Object],[object Object],[object Object]
由于许可问题,我们无法提供Cityscapes数据集。请从https://cityscapes-dataset.com下载数据集,并使用脚本[prepare_cityscapes_dataset.py](datasets/prepare_cityscapes_dataset.py)进行预处理。您需要下载gtFine_trainvaltest.zip
和leftImg8bit_trainvaltest.zip
,并将它们解压到同一文件夹中。例如,您可以将gtFine
和leftImg8bit
放在database/cityscapes-origin
中。您需要使用以下命令准备数据集:
[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
您将在database/cityscapes
中获得预处理后的数据集,以及dataset/table.txt
中的映射表(用于计算mIoU)。
我们遵循与NVlabs/spade相同的COCO-Stuff数据集准备方法。具体来说,您需要从nightrome/cocostuff下载train2017.zip
、val2017.zip
、stuffthingmaps_trainval2017.zip
和annotations_trainval2017.zip
。图像、标签和实例地图应按照datasets/coco_stuff中的相同目录结构排列。特别地,我们使用了一个结合了"物体实例地图"和"物质标签地图"边界的实例地图。为此,我们使用了一个简单的脚本datasets/coco_generate_instance_map.py。
为了支持mIoU计算,您需要下载预训练的DeeplabV2模型deeplabv2_resnet101_msc-cocostuff164k-100000.pth,并将其也放在仓库的根目录中。
以下我们展示了所有已发布模型的性能:
<table style="undefined;table-layout: fixed; width: 868px"> <colgroup> <col style="width: 130px"> <col style="width: 130px"> <col style="width: 130px"> <col style="width: 130px"> <col style="width: 130px"> <col style="width: 109px"> <col style="width: 109px"> </colgroup> <thead> <tr> <th rowspan="2">模型</th> <th rowspan="2">数据集</th> <th rowspan="2">方法</th> <th rowspan="2">参数数量</th> <th rowspan="2">MACs</th> <th colspan="2">评估指标</th> </tr> <tr> <td>FID</td> <td>mIoU</td> </tr> </thead> <tbody> <tr> <td rowspan="4">CycleGAN</td> <td rowspan="4">马→斑马</td> <td>原始</td> <td>11.4M</td> <td>56.8G</td> <td>65.75</td> <td>--</td> </tr> <tr> <td>GAN压缩(论文)</td> <td>0.342M</td> <td>2.67G</td> <td>65.33</td> <td>--</td> </tr> <tr> <td>GAN压缩(重新训练)</td> <td>0.357M</td> <td>2.55G</td> <td>65.12</td> <td>--</td> </tr> <tr> <td>快速GAN压缩</td> <td>0.355M</td> <td>2.64G</td> <td>65.19</td> <td>--</td> </tr> <tr> <td rowspan="11">Pix2pix</td> <td rowspan="4">边缘→鞋子</td> <td>原始</td> <td>11.4M</td> <td>56.8G</td> <td>24.12</td> <td>--</td> </tr> <tr> <td>GAN压缩(论文)</td> <td>0.700M</td> <td>4.81G</td> <td>26.60</td> <td>--</td> </tr> <tr> <td>GAN压缩(重新训练)</td> <td>0.822M</td> <td>4.99G</td> <td>26.70</td> <td>--</td> </tr> <tr> <td>快速GAN压缩</td> <td>0.703M</td> <td>4.83G</td> <td>25.76</td> <td>--</td> </tr> <tr> <td rowspan="4">城市景观</td> <td>原始</td> <td>11.4M</td> <td>56.8G</td> <td>--</td> <td>42.06</td> </tr> <tr> <td>GAN压缩(论文)</td> <td>0.707M</td> <td>5.66G</td> <td>--</td> <td>40.77</td> </tr> <tr> <td>GAN压缩(重新训练)</td> <td>0.781M</td> <td>5.59G</td> <td>--</td> <td>38.63</td> </tr> <tr> <td>快速GAN压缩</td> <td>0.867M</td> <td>5.61G</td> <td>--</td> <td>41.71</td> </tr> <tr> <td rowspan="3">地图→航拍照片<br></td> <td>原始</td> <td>11.4M</td> <td>56.8G</td> <td>47.91</td> <td>--</td> </tr> <tr> <td>GAN压缩</td> <td>0.746M</td> <td>4.68G</td> <td>48.02</td> <td>--</td> </tr> <tr> <td>快速GAN压缩</td> <td>0.708M</td> <td>4.53G</td> <td>48.67</td> <td>--</td> </tr> <tr> <td rowspan="6">GauGAN</td> <td rowspan="4">城市景观</td> <td>原始</td> <td>93.0M</td> <td>281G</td> <td>57.60</td> <td>61.04</td> </tr> <tr> <td>GAN压缩(论文)</td> <td>20.4M</td> <td>31.7G</td> <td>55.19</td> <td>61.22</td> </tr> <tr> <td>GAN压缩(重新训练)</td> <td>21.0M</td> <td>31.2G</td> <td>56.43</td> <td>60.29</td> </tr> <tr> <td>快速GAN压缩</td> <td>20.2M</td> <td>31.3G</td> <td>56.25</td> <td>61.17</td> </tr> <tr> <td rowspan="2">COCO-Stuff</td> <td>原始</td> <td>97.5M</td> <td>191G</td> <td>21.38</td> <td>38.78</td> </tr> <tr> <td>快速GAN压缩</td> <td>26.0M</td> <td>35.5G</td> <td>25.06</td> <td>35.05</td> </tr> <tr> <td rowspan="2">MUNIT</td> <td rowspan="2">边缘→鞋子</td> <td>原始</td> <td>15.0M</td> <td>77.3G</td> <td>30.13</td> <td>--</td> </tr> <tr> <td>快速GAN压缩</td> <td>1.10M</td> <td>2.63G</td> <td>30.53</td> <td>--</td> </tr> </tbody> </table>请参考快速GAN压缩和GAN压缩的教程,了解如何在我们的数据集和您自己的数据集上训练模型。
要计算FID分数,您需要从数据集的真实图像中获取一些统计信息。我们提供了一个脚本get_real_stat.py来提取统计信息。例如,对于edges2shoes数据集,您可以运行以下命令:
[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
对于成对的图像到图像转换(pix2pix和GauGAN),我们计算生成的测试图像与真实测试图像之间的FID。对于非成对的图像到图像转换(CycleGAN),我们计算生成的测试图像与真实训练+测试图像之间的FID。这允许我们使用更多的图像进行稳定的FID评估,就像之前的无条件GAN研究中所做的那样。这两种协议的差异很小。当使用真实测试图像而不是真实训练+测试图像时,我们压缩的CycleGAN模型的FID增加了4。
为了帮助用户更好地理解和使用我们的代码,我们简要概述了每个包和每个模块的功能和实现。
如果您在研究中使用了这份代码,请引用我们的论文。
@inproceedings{li2020gan, title={GAN Compression: Efficient Architectures for Interactive Conditional GANs}, author={Li, Muyang and Lin, Ji and Ding, Yaoyao and Liu, Zhijian and Zhu, Jun-Yan and Han, Song}, booktitle={Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition}, year={2020} }
我们的代码是基于pytorch-CycleGAN-and-pix2pix、SPADE和MUNIT开发的。
我们还要感谢pytorch-fid用于FID计算,drn用于城市景观mIoU计算,以及deeplabv2用于Coco-Stuff mIoU计算。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号