什么是生成对抗网络
扫描二维码
随时随地手机看文章
生成对抗网络(Generative Adversarial Networks,GAN)是用于无监督学习的机器学习模型,由Ian Goodfellow等人在2014年提出。由神经网络构成判别器和生成器构成,通过一种互相竞争的机制组成的一种学习框架,GAN在深度学习领域掀起了一场革命,这场革命产生了一些重大的技术突破,学术界和工业界都开始接受并欢迎GAN的到来。GAN最厉害的地方是它的学习性质是无监督的,GAN也不需要标记数据,这使得GAN功能强大,因为数据标记的工作非常枯燥。GAN的潜在用例使它成为交谈的中心,它可以生成高质量的图像、图片增强、从文本生成图像、将图像从一个域转换为另一个域,随年龄增长改变脸部外观等等。传统的生成模型最早要追溯到80年代的RBM,以及后来逐渐使用深度神经网络进行包装的AutoEncoder,然后就是现在称得上最火的生成模型GAN。
GAN经历了如下的发展历程:
⚫诞生
生成对抗网络(GAN)具有两个网络,生成器网络和鉴别器网络。这两个网络可以是神经网络,从卷积神经网络、递归神经网络到自动编码器。在这种配置中,两个网络参与竞争游戏并试图相互超越,同时帮助他们完成自己的任务。经过数千次迭代后,如果一切顺利,生成器网络可以完美生成逼真的虚假图像,并且鉴别器网络可以很好地判断图像是真实的还是虚假的。换句话说,生成器网络将来自潜在空间的随机噪声矢量(不是来自潜在空间的所有GAN样本)变换为真实数据集的样本。GAN的训练是一个非常直观的过程。GAN具有大量的实际用例,如图像生成、艺术品生成、音乐生成和视频生成。此外,它还可以提高图像质量,并且完成图像风格化或着色、面部生成以及其他更多有趣的任务。
GAN网络的架构
首先,从潜在空间采样D维的噪声矢量并发送到生成器网络。生成器网络将该噪声矢量转换为图像,然后将生成的图像发送到鉴别器网络以进行分类。鉴别器网络不断地从真实数据集和由发生器网络生成的图像中获得图像。它的工作是区分真实和虚假的图像。所有GAN架构都遵循这样的设计。
⚫青春期
在青春期,GAN产生了许多流行的架构,如DCGAN,StyleGAN,BigGAN,StackGAN,Pix2pix,Age-cGAN,CycleGAN等。这些结构的结果都非常令人满意。下面详细讨论这些GAN架构。
DCGAN:
这是第一次在GAN中使用卷积神经网络并取得了非常好的结果。之前,CNN在计算机视觉方面取得了前所未有的成果,但在GAN中还没有开始应用CNNs。Alec Radford,Luke
Metz,Soumith Chintala等人在“Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks”中提出了DCGAN[22]。这是GAN研究的一个重要里程碑,因为它提出了一个重要的架构变化来解决训练不稳定、模式崩溃和内部协变量转换等问题。从那时起,基于DCGAN的架构就被应用到了许多GAN架构。
BigGAN:
这是GAN中用于图像生成的最新进展。一个谷歌的实习生和谷歌DeepMind部门的两名研究人员发表了一篇“Large Scale GAN Training for High Fidelity Natural Image Synthesis”的论文。本文是来自Heriot-Watt大学的Andrew Brock与来自DeepMind的Jeff Donahue和Karen Simonyan合作的实习项目。
StyleGAN:
StyleGAN是GAN研究领域的另一项重大突破。StyleGAN由Nvidia在题为“A Style-
Based Generator Architecture for Generative Adversarial Network”的论文中介绍[23]。StyleGAN
在面部生成任务中创造了新记录。算法的核心是风格转移技术或风格混合。除了生成面部外,它还可以生成高质量的汽车、卧室等图像。这是GANs领域的另一项重大改进,也是深度学习研究人员的灵感来源。
StackGAN:
StackGANs由Han Zhang,Tao Xu,Hongsheng Li还有其他人在题为StackGAN:Text to Photo-Realistic Image Synthesis with Stacked Generative Adversarial Networks的论文中提出。
他们使用StackGAN来探索文本到图像的合成,得到了非常好的结果。一个StackGAN由一对网络组成,当提供文本描述时,可以生成逼真的图像。
CycleGAN:
CycleGAN有一些非常有趣的用例,例如将照片转换为绘画,将夏季拍摄的照片转换为冬季拍摄的照片,或将马的照片转换为斑马照片,或者相反。CycleGANs由Jun-Yan Zhu,Taesung Park,Phillip Isola和Alexei A.Efros在题为“Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks”的论文中提出,CycleGAN用于不同的图像到图像翻译。
Pix2pix:
Pix2pix网络由Phillip Isola,Jun-Yan Zhu,Tinghui Zhou和Alexei A.Efros在他们的题为“Image-to-Image Translation with Conditional Adversarial Networks”的论文中提出。对于图像到图像的翻译任务,pix2pix显示出了令人印象深刻的结果。无论是将夜间图像转换为白天的图像还是给黑白图像着色,或者将草图转换为逼真的照片等等,Pix2pix在这些例子中都表现非常出色。这是一个交互式的演示,能够从草图生成真实图像。
⚫崛起
正如这名理论物理学家理查德费曼所说:“What I can’t create,I don’t understand”,GAN背后的思想是训练已知数据的网络。GAN开始了解数据,通过这种了解,GAN开始创建逼真的图像。
Edmond de Belamy:
由GAN创作的Edmond de Belamy在佳士得拍卖会上以432,500美元的价格成交。这是GAN发展的重要一步,全世界第一次目睹了GAN及其潜力。在此之前,GAN主要局限于研究实验室,并由机器学习工程师使用,这一行为使GAN成为面向公众的一个入口。
Deep Fakes:
DeepFakes是一种使用机器学习技术来创建逼真图像和视频的技术。基于GAN,可以将人脸粘贴到视频中的目标人物上。事实上,人脸交换技术在电影制作领域已经不是个新鲜词
了,但是之前电影视频中的人脸交换非常复杂,专业的视频剪辑师和CGI专家需要花费大量时间和精力才能完成视频中的人脸交换。DeepFakes的出现可以说是人脸交换技术的一个突破。利用DeepFakes技术,你只需要一个GPU和一些训练数据,就能够制作出以假乱真的换脸视频。这可以说是一个非常了不起的突破了,因为你只需要把上百张人物的样图输入至一个算法,就能完成人脸交换,制作出非常逼真的视频效果。就算你是个对视频剪辑一窍不通的外行,也能做到这样。
⚫未来发展
现在GAN已被用于增强游戏图形。有学者表示“我对GAN的这种用例感到非常兴奋。最近,NVIDIA发布了一个视频,其中展示了如何使用GAN对视频中的环境进行游戏化。我们看到了GAN如何发展壮大并成为一种全球现象。我希望在未来几年GAN达到民主化。当我看到关于GAN的负面新闻时感到一些困惑。我相信,我们有责任让每个人都了解GAN带来的影响,以及我们如何在伦理道德上尽可能使用GAN。”