Keras-GAN:使用Keras实现各种生成对抗网络

RayRay
Keras-GAN生成对抗网络图像生成深度学习机器学习Github开源项目

Keras-GAN:使用Keras实现各种生成对抗网络

生成对抗网络(Generative Adversarial Networks, GAN)是近年来深度学习领域最热门的研究方向之一。自2014年Ian Goodfellow等人提出GAN以来,各种GAN变体层出不穷,在图像生成、风格迁移、超分辨率等多个领域取得了突破性进展。然而,由于GAN的训练较为困难,实现一个稳定工作的GAN模型并非易事。

Keras-GAN项目旨在为深度学习研究者和实践者提供各种GAN的Keras参考实现。该项目由Erik Linder-Norén发起,目前已包含20多种GAN变体的实现,涵盖了DCGAN、CGAN、CycleGAN等经典模型。所有模型都使用Keras深度学习框架实现,代码简洁易懂,非常适合学习和二次开发。

Keras-GAN Logo

项目特点

  1. 涵盖广泛:包含20多种GAN变体实现,几乎覆盖了所有主流GAN模型。

  2. 代码规范:所有模型都遵循相似的代码结构,便于对比学习不同GAN的异同。

  3. 易于使用:每个模型都提供了训练和生成示例,只需几行命令即可运行。

  4. 详细文档:README中对每个模型都有简要介绍和论文链接,方便深入学习。

  5. 持续更新:项目一直在维护,不断加入新的GAN变体实现。

主要模型

Keras-GAN项目实现的部分经典GAN模型包括:

  • DCGAN:第一个成功将CNN应用于GAN的模型,极大提升了GAN生成图像的质量。

  • Conditional GAN:引入条件信息,实现可控的图像生成。

  • CycleGAN:无需配对数据的图像风格迁移模型。

  • Pix2Pix:有监督的图像到图像转换模型。

  • WGAN:引入Wasserstein距离,提高GAN训练稳定性。

下面我们来详细介绍其中几个代表性模型。

DCGAN

DCGAN(Deep Convolutional GAN)是第一个成功将卷积神经网络应用于GAN的模型。相比原始GAN使用全连接网络,DCGAN的生成器和判别器都采用了卷积结构,大幅提升了生成图像的质量。

DCGAN的主要改进包括:

  1. 使用转置卷积代替池化层进行上采样
  2. 在生成器中使用BatchNorm
  3. 移除全连接层
  4. 在判别器中使用LeakyReLU激活函数

DCGAN的Keras实现代码如下:

def build_generator(self): model = Sequential() model.add(Dense(128 * 7 * 7, activation="relu", input_dim=self.latent_dim)) model.add(Reshape((7, 7, 128))) model.add(UpSampling2D()) model.add(Conv2D(128, kernel_size=3, padding="same")) model.add(BatchNormalization(momentum=0.8)) model.add(Activation("relu")) model.add(UpSampling2D()) model.add(Conv2D(64, kernel_size=3, padding="same")) model.add(BatchNormalization(momentum=0.8)) model.add(Activation("relu")) model.add(Conv2D(self.channels, kernel_size=3, padding="same")) model.add(Activation("tanh")) return model def build_discriminator(self): model = Sequential() model.add(Conv2D(32, kernel_size=3, strides=2, input_shape=self.img_shape, padding="same")) model.add(LeakyReLU(alpha=0.2)) model.add(Dropout(0.25)) model.add(Conv2D(64, kernel_size=3, strides=2, padding="same")) model.add(ZeroPadding2D(padding=((0,1),(0,1)))) model.add(BatchNormalization(momentum=0.8)) model.add(LeakyReLU(alpha=0.2)) model.add(Dropout(0.25)) model.add(Conv2D(128, kernel_size=3, strides=2, padding="same")) model.add(BatchNormalization(momentum=0.8)) model.add(LeakyReLU(alpha=0.2)) model.add(Dropout(0.25)) model.add(Conv2D(256, kernel_size=3, strides=1, padding="same")) model.add(BatchNormalization(momentum=0.8)) model.add(LeakyReLU(alpha=0.2)) model.add(Dropout(0.25)) model.add(Flatten()) model.add(Dense(1, activation='sigmoid')) return model

DCGAN在MNIST数据集上的生成效果如下:

DCGAN生成效果

Conditional GAN

Conditional GAN(CGAN)通过在输入中加入额外的条件信息(如类别标签),实现了对生成过程的控制。这使得GAN可以生成指定类别的样本,大大增强了模型的实用性。

CGAN的主要改进是在生成器和判别器的输入中都加入条件信息:

  • 生成器:将随机噪声z和条件c连接后输入
  • 判别器:将图像x和条件c连接后输入

CGAN的Keras实现关键代码如下:

def build_generator(self): model = Sequential() model.add(Dense(256, input_dim=self.latent_dim+self.num_classes)) model.add(LeakyReLU(alpha=0.2)) model.add(BatchNormalization(momentum=0.8)) model.add(Dense(512)) model.add(LeakyReLU(alpha=0.2)) model.add(BatchNormalization(momentum=0.8)) model.add(Dense(1024)) model.add(LeakyReLU(alpha=0.2)) model.add(BatchNormalization(momentum=0.8)) model.add(Dense(np.prod(self.img_shape), activation='tanh')) model.add(Reshape(self.img_shape)) noise = Input(shape=(self.latent_dim,)) label = Input(shape=(1,), dtype='int32') label_embedding = Flatten()(Embedding(self.num_classes, self.latent_dim)(label)) model_input = concatenate([noise, label_embedding]) img = model(model_input) return Model([noise, label], img) def build_discriminator(self): model = Sequential() model.add(Dense(512, input_dim=np.prod(self.img_shape)+self.num_classes)) model.add(LeakyReLU(alpha=0.2)) model.add(Dense(512)) model.add(LeakyReLU(alpha=0.2)) model.add(Dropout(0.4)) model.add(Dense(512)) model.add(LeakyReLU(alpha=0.2)) model.add(Dropout(0.4)) model.add(Dense(1, activation='sigmoid')) img = Input(shape=self.img_shape) label = Input(shape=(1,), dtype='int32') label_embedding = Flatten()(Embedding(self.num_classes, np.prod(self.img_shape))(label)) flat_img = Flatten()(img) model_input = concatenate([flat_img, label_embedding]) validity = model(model_input) return Model([img, label], validity)

CGAN在MNIST数据集上可以生成指定数字的手写体图像:

CGAN生成效果

CycleGAN

CycleGAN是一种无需配对数据的图像到图像转换模型。它可以学习两个域之间的映射关系,实现风格迁移、季节变换等任务。CycleGAN的核心思想是引入循环一致性损失,确保转换的可逆性。

CycleGAN包含两个生成器G和F,以及两个判别器DA和DB。其训练目标包括:

  1. 对抗损失:生成的图像要能骗过判别器
  2. 循环一致性损失:G(F(x)) ≈ x, F(G(y)) ≈ y
  3. 身份映射损失:G(y) ≈ y, F(x) ≈ x

CycleGAN的核心实现代码如下:

def build_generator(self): """U-Net Generator""" def conv2d(layer_input, filters, f_size=4): """Layers used during downsampling""" d = Conv2D(filters, kernel_size=f_size, strides=2, padding='same')(layer_input) d = LeakyReLU(alpha=0.2)(d) d = InstanceNormalization()(d) return d def deconv2d(layer_input, skip_input, filters, f_size=4, dropout_rate=0): """Layers used during upsampling""" u = UpSampling2D(size=2)(layer_input) u = Conv2D(filters, kernel_size=f_size, strides=1, padding='same', activation='relu')(u) if dropout_rate: u = Dropout(dropout_rate)(u) u = InstanceNormalization()(u) u = Concatenate()([u, skip_input]) return u # Image input d0 = Input(shape=self.img_shape) # Downsampling d1 = conv2d(d0, self.gf) d2 = conv2d(d1, self.gf*2) d3 = conv2d(d2, self.gf*4) d4 = conv2d(d3, self.gf*8) # Upsampling u1 = deconv2d(d4, d3, self.gf*4) u2 = deconv2d(u1, d2, self.gf*2) u3 = deconv2d(u2, d1, self.gf) u4 = UpSampling2D(size=2)(u3) output_img = Conv2D(self.channels, kernel_size=4, strides=1, padding='same', activation='tanh')(u4) return Model(d0, output_img) def build_discriminator(self): def d_layer(layer_input, filters, f_size=4, normalization=True): """Discriminator layer""" d = Conv2D(filters, kernel_size=f_size, strides=2, padding='same')(layer_input) d = LeakyReLU(alpha=0.2)(d) if normalization: d = InstanceNormalization()(d) return d img = Input(shape=self.img_shape) d1 = d_layer(img, self.df, normalization=False) d2 = d_layer(d1, self.df*2) d3 = d_layer(d2, self.df*4) d4 = d_layer(d3, self.df*8) validity = Conv2D(1, kernel_size=4, strides=1, padding='same')(d4) return Model(img, validity)

CycleGAN可以实现多种有趣的图像转换效果,如下图所示的苹果到橙子的转换:

CycleGAN效果

使用方法

Keras-GAN项目的使用非常简单,以DCGAN为例:

  1. 克隆项目
git clone https://github.com/eriklindernoren/Keras-GAN
cd Keras-GAN/
  1. 安装依赖
pip install -r requirements.txt
  1. 训练模型
cd dcgan/
python3 dcgan.py

每个模型文件夹下都有独立的Python脚本,直接运行即可开始训练。训练过程中会定期保存生成的图像样本,可以直观地观察训练进展。

总结

Keras-GAN项目为我们提供了丰富的GAN参考实现,是学习和实践GAN的绝佳资源。通过阅读和运行这些代码,我们可以深入理解各种GAN的工作原理,为自己的GAN应用开发打下坚实基础。

尽管该项目目前已停止更新,但其中的大部分模型实现仍然具有很高的参考价值。研究者和

编辑推荐精选

博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

热门AI工具AI办公办公工具智能排版AI生成PPT博思AIPPT海量精品模板AI创作
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多