生成对抗网络发展研究综述
姓名:梁宇学号:2021214395姓名:牛志远学号:2021214394§00摘 要
生成对抗网络在过去几年里得到了广泛的研究,在很多方面都取得了巨大的进步。统计学习中最重要的挑战即是如何生成大规模数据分布的样本,如图像和语音,生成对抗网络正是解决这一问题的有效方法。GAN提供了一种无需广泛标记的训练数据来学习数据表征的方法,这种方法不需要对概率密度函数进行精确建模。
在GAN中,生成模型通过一个竞争过程来生成样本,生成器学习生成可信数据,判别器学习区分生成的假数据和真实数据样本,生成器和判别器同时进行训练,最后生成与训练数据同分布的生成数据。本文在介绍GAN的主要概念和理论后,对近年来GAN的变种做了详细的分类和讨论,并对GAN的评价指标进行说明,对GAN的应用进行了介绍,最后总结GAN将来所面临的挑战和未来发展方向。
关键词:生成对抗网络,生成样本,博弈过程摘要目录Contents引言概念和原理GAN的原理GAN评价指标GAN的变体全连接GAN条件GANGAN的应用基于图像的应用域适应基于序列数据的应用改进分类和识别总结§01引 言
机器学习算法大致分为两大类-有监督学习和无监督学习。监督学习需要一个每个数据都进行标注并有各种特征的数据集,主要用于分类和回归问题。无监督学习需要一个具有多个相似标签的数据集,常用于密度估计、聚类、噪声生成和消除。
在监督学习中,手动标记数据昂贵且耗时,自动收集数据困难且复杂。深度学习中常通过数据扩充方法提高模型效果,减少泛化误差。然而这种简单的方法仅可以获得信息有限的数据,而生成对抗网络(GenerativeAdversarialNetworks,GAN)[1]能够生成高质量的样本,大幅提高数据的丰富度。生成模型通常基于马尔科夫链、最大似然估计(MLE)、近似推理和玻尔兹曼机及其开发的模型[2],其余的有深度置信网络[3]以及深度波尔茨曼机[4]。IanGoodfellow在半监督和无监督学习的研究思路下提出了GAN,受到了广泛的关注。
GAN目前已经在计算机视觉、信号处理、图像合成和编辑、自然语言处理等领域取得了广泛的应用[5]。GAN的主要理论来源于零和游戏,其中一名参与者的得分正好等于另一名参与者的失分,参与者的总收益减去总损失将为0。GAN架构由两个一起训练的网络组成:即生成器和判别器。生成器学习真实数据的数据分布,以生成能够拟合真实数据的伪数据,从而误导判别器将其视为真实输入。判别器则是一个分类器,用于区分给定输入是否来自真实数据集。两个网络不断优化以提高各自的能力,并试图从自己的弱点中学习到彼此的弱点,最终在训练中都变得更强。通过scopu文献检索软件分析可得图1-1,图1-1展示了截止到2020年GAN在各学科领域应用的文章总数。
▲图1.12020年GAN在各学科领域发表文献数鉴于GAN在各个学科领域中的应用,因此有必要对其进行介绍,调查GAN在各领域的研究近况。本文第二节将详细描述GAN的概念和理论推导,第三节综述近年来GAN的新架构,第四节介绍GAN在各领域内的应用,第五节对全文进行总结。
§02概念和原理2.1GAN的原理
自从GAN在2014年被提出以来,这项工作就受到了广泛的关注,并且基于GAN的新思想、新技术和新应用的有爆炸性增长。GAN的目标是解决以下问题:假设有一组对象数据集,GAN可以通过噪声生成相似的对象,原理是神经网络通过使用训练数据集对网络参数进行适当调整,并且深度神经网络可以用来近似任何函数。
对于GAN判别器函数D和生成函数G建模为神经网络,GAN的具体模型如图21所示,GAN实际上包含了两个网络,一个是生成网络G用于生成假样本,另一个是判别网络D用于判别样本真假,并且引入对抗损失,通过对抗训练的方式让生成器生成高质量的样本。
▲图2.1.1GAN模型的基本结构对抗学习可以通过判别函数D(x):Rn→[0,1]Dleft(x ight):R^n oleft[{0,1} ight]D(x):Rn→[0,1]和生成函数G:Rd→RnG:R^d oR^nG:Rd→Rn之间的目标函数极大极小值实现。生成器GGG将来自于γgammaγ分布随机样本z∈RdzinR^dz∈Rd转化成生成样本G(z)Gleft(z ight)G(z)。判别器DDD视图将它们与来自分布μmuμ的真实训练样本区分开来,而GGG试图使生成样本在分布上与训练样本相似。对抗的目标损失函数如式2-1所示为:
在式2-1中,E表示关于下表中指定分布的期望值。GAN可以通过一个极大极小值问题的形式解决,如式2-2所示:
直观理解式2-2,对于给定的生成器G,maxDV(D,G)G,max_DVleft({D,G} ight)G,maxDV(D,G)优化判别器DDD以区分生成样G(z)Gleft(z ight)G(z),即分布μmuμ的真实样本权重更大,而生成样本G(z)Gleft(z ight)G(z)的权重更小。相反,对于给定的鉴别器D,minGV(D,G)D,min_GVleft({D,G} ight)D,minGV(D,G),优化GGG,使得生成样本G(z)Gleft(z ight)G(z)可以互动判别器DDD以分配更大权重。设y=G(z)∈Rny=Gleft(z ight)inR^ny=G(z)∈Rn,其分布为υ:=γ⋅G−1upsilon:=gammacdotG^{-1}υ:=γ⋅G−1,可以使的DDD和υupsilonυ重写V(D,G)Vleft({D,G} ight)V(D,G)为2-3式
将式2-2中的极大极小值公式变为式2-4:
如果在每个训练周期中,允许判别器D达到其给定最佳q(x),然后更新q(x),根据最小化准则有式2-5: 综上可以总结得出GAN的算法求解如下:
Input:随机噪声{z1,…,zm}inRd;真实样本{x1,…,xm}⊂X.Output:生成样本Xfake.1.fort=0toT−1do 2.从高斯噪声分布γ中随机采样出m个样本,即{z1,…,zm}inRd; 3.从真实数据分布X中随机采样出m个样本,即{x1,…,xm}⊂X; 4.通过小批量随机梯度下降法来更新判别器Dω的参数,具体公式为:
5:再从高斯噪声分布γ中随机采样出另外的m个样本,即{z1,…,zm} inRd?通过小批量随机梯度下降法来更新判别器Gθ的参数,具体公式为:
2.2GAN评价指标随着GAN的发展,GAN的定性评价指标也逐渐有所发展,以下将介绍GAN中广泛使用的几种定量评价指标。”InceptionScore(IS)”metric是一种对生成样本质量和多样性两个特征进行客观评价的方法[6]。IS使用预训练的初始v3网络进行度量,其最小值为1.0,IS值越高,说明生成样本的质量越好。
”FrechetInceptionDistance(FID)”是一种改进的IS度量方法,在这种方法中,生成的样本被嵌入到由初始网络的特定层提供的特征空间中,假设生成样本服从多维高斯分布,计算生成样本与真实数据之间的均值和协方差,计算两个高斯函数之间的FID函数值,以评估生成样本的质量[7]。然而,IS和FID方法不能很好地解决过拟合问题,为了克服这个问题,多尺度结构相似度可以用于衡量生成样本与真实样本的相似性,同时克服了过拟合问题[8]。一般来说,一个准确的评价指标应该可以区分生成样本和真实样本的相似度,同时又能够检测出过拟合问题,使GAN具有一定的泛化性。
§03GAN的变体
自从GAN被提出后,许多研究者对GAN的结构进行了研究,提出了很多类型的GAN变体网络,它们分别应用于不同的任务,取得了很好的效果。
3.1全连接GAN最初的基于能量的GAN(EBGAN)[1]使用了全连接的神经网络来构建生成器和判别器。这种架构变体通常被应用于一些简单的图像数据集,例如MNIST和CIFAR-10。作者提出了优化判别器的k个步骤,以及在训练过程中完成优化判别器的过拟合鉴别器的优化步骤。由于生成器同时使用了ReLU和sigmoid激活函数。对于更复杂的图像类型,它并不能表现出良好的泛化性能。
3.2条件GAN如果生成网络和判别网络都以一些额外的信息y为条件,就可以解决原始模型[9]中仅依赖于随机变量的限制,则GANs可以扩展到一个条件模型。y可以是任何一种辅助信息。条件信息可以通过将y作为一个额外的输入层输入到生成网络和判别网络来添加,如图3-1所示。
▲,GAN的网络结构3.3双向生成对抗网络(BiGAN)传统的GAN没有学习逆映射的方法,即无法将数据投影回潜在空间。双向GAN(BiGAN)是为此目的而设计的[10]。如图3-2所示。整个架构由一个编码器(E)、一个生成器(G)和一个判别器(D)组成。E将真实样本数据编码为E(x),而G将z解码为G(z)。因此,D的目的是计算每对E(x)x和G(z)z之间的差异。由于E和G不直接通信,也就是说,E从来看不到G(z)和G从未看到E(x)。
▲图3.3.1BiGAN网络作者证明了编码器和解码器必须学会相互反转来欺骗判别器。这样的模型有可能能够在未来的工作中处理敌对的例子。作者将BiGAN在MNIST和ImageNet数据集上进行了训练,实现了良好的效果。
3.4深度卷积生成对抗网络(DCGAN)DCGAN是第一个应用于G[11]的反卷积神经网络架构的工作。该网络结构如图33所示。反卷积用于可视化CNN的特征,并表现出了CNN可视化[12]的良好性能。DCGAN对G部署了具有反卷积操作的空间上采样能力,从而可以使用GANs生成更高分辨率的图像。与最初的FCGAN相比,DCGAN的体系结构有一些重要的修改,这些修改有利于高分辨率建模和训练的稳定性。
首先,DCGAN用用于判别器的串卷积代替任何池化层,用用于生成器的分数串卷积。其次,对判别器和生成器都采用批量归一化,有助于定位生成的样本和以零为中心的真实样本,即对生成的样本和真实样本进行相似的统计量。第三,ReLU激活函数用于除输出外的所有层的生成器中,输出使用Tanh,而LeakyReLU激活函数用于所有层的判别器中。在这种情况下,LeakyReLU的激活函数将防止网络停滞在"死亡状态"。DCGAN是GANs历史上一个非常重要的里程碑,反卷积思想成为GAN生成器中使用的主要架构。由于模型容量的限制以及优化问题,它只在低分辨率和较少多样性的图像上效果较好。
3.5自注意力生成对抗网络(SARAN)传统的CNN只能捕获局部空间信息,并且接受域可能不覆盖足够的结构,这导致基于CNN的GANs难以学习多类图像数据集(如ImageNet),以及生成的图像的关键部分可能会转移,例如一个人脸生成的图像上眼睛可能会出现在错误的位置。自注意机制在不牺牲CNN的计算效率的情况下确保大的接收域。自注意GAN(SAGAN)在GANs[13]的判别器和生成器架构的设计中部署了一种自注意力机制。
▲图3.5.1DCGAN网络结构SAGAN的网络结构如图3-4所示。在自注意力机制的作用下SAGAN能够学习全局和长期依赖来生成图像。在基于ImageNet数据集上实现多类图像生成技术,取得了良好的性能。这表明自注意机制对大特征映射的卷积是互补的。因此,将自注意力机制应用于大特征图可以提高GANs的识别性能。
▲图3.5.2SAGAN网络结构拉普拉斯生成对抗网络(LAPGAN)拉普拉斯金字塔生成对抗网络(LAPGAN)用于从低分辨率输入图像中生成高分辨率的图像[14]。拉普拉斯金字塔[15]是一种图像编码方法,它使用许多尺度不同但形状相同的局部算子作为基本函数。LAPGAN利用拉普拉斯金字塔框架中的CNN级联来生成高质量的图像,SAGAN生成器的上采样过程如图3-5所示。LAPGAN没有使用反卷积过程来对上一层的内核输出进行上采样,而是使用拉普拉斯金字塔来对图像进行上采样。
▲图3.6.1LAPGAN网络结构第一LAPGAN使用第一个生成器来产生一个非常小的图像,这可以缓解生成器的不稳定性问题,然后通过使用一个拉普拉斯金字塔框架对该图像进行上采样。然后将上采样的图像输入到下一个生成器,以产生图像差和图像差的总和。输入的图像将会是生成的图像。对于较大的图像,使用生成器来生成图像差,这比相同大小的原始图像的复杂程度要小得多,所以这种结构便于训练的稳定性和高分辨率建模。
3.6熵信息最大化生成对抗网络(InfoGANs)InfoGAN[16]通过最大化条件变量和生成数据之间的互信息,以无监督的方式学习可解释表示。为了实现这一点,InfoGAN引入了另一个分类器Q来预测G(z|y)给出的y,如图3-6所示。这里的G和Q的组合可以理解为一个自动编码器,其中我们的目标是找到嵌入(G(z|y))以最小化交叉熵。为了降低计算成本,Q和D共享除最后一个全连接层外的所有卷积层,使判别器具有区分真实和虚假样本并恢复信息y的能力。与原来的GAN体系结构相比,这可以提高InfoGAN的判别能力。在InfoGAN中使用的损失函数是对CGAN损失函数的正则化
其中,V(DG)是CGAN的目标,只是判别器不以y作为输入,而I(G,Q)是互信息。在数据即集上进行实验,该模型具有良好的判别能力,但由于共享参数使得模型的多样性较差。
▲图3.7.1InfoPGAN网络结构3.7对抗自动编码器(AAE)对抗自编码器[17]是一种概率自编码器,通过将自编码器的隐藏编码向量的聚合后验与任意先验分布进行匹配,利用GAN进行推理。在对抗自编码器中,自编码器采用双目标进行训练,分别是传统的重构误差标准和将潜在表示的聚合后验分布与任意先验分布相匹配的对抗式训练标准。经过训练后,编码器能够将数据分布转换为先验分布,而解码器学习一个深度生成模型,以映射先验数据分布。网络结构如图3-7所示自动编码器q(zx)的编码函数在自动编码器的隐藏编码向量上的聚合后验分布如下所示:
在对抗式自动编码器中,通过将聚合的后验分布q(z)匹配到任意的先验p(z),使自动编码器进行正则化。对抗性网络的生成器也是自编码器的编码器。对抗网络和自编码器在重建阶段和正则化阶段共同进行训练。在数据集上进行竞争性测试,具有良好的分类性能。
▲图3.8.1AAE网络结构§04GAN的应用
GAN是一个非常强大的生成模型,因为它可以生成具有潜在向量的实样本。我们不需要知道一个明确的真实数据分布,也不需要假设进一步的数学条件。这些优点使GAN被应用于各种学术和工程领域,取得了非常好的效果。在本节中,我们将讨论GANs在几个不同的领域中的应用,以及一些经典的方法。
4.1基于图像的应用GANs最成功的应用是在图像处理和计算机视觉方面,这里我们对GANs在图像和视频处理中的应用进行了阐述,包含提高图像质量、图像修补和超分辨率等。
4.1.1生成高质量图像最近的GAN相关研究在提高图像生成的质量和实用性上取得了良好的效果,研究人员对基于GAN的高质量图像生成方法进行了研究。LAPGAN模型在Laplacian金字塔框架内引入了卷积网络的级联,以非常简单的方式[14]生成了图像,实现了较高的图像质量。
Zhang等人[13]提出了一种自注意力生成对抗网络(SAGAN),它与传统的卷积GANs生成高分辨率详细信息的方法不同,传统的卷积GANs使用低分辨率特征图生成高分辨率详细信息。而SAGAN包含的详细信息可以使用来自所有特征位置的线索进行生成,在不牺牲CNN的计算效率的情况下确保了大的接收域。最终SAGAN网络实现了最先进的结果,将已发表的最佳得分从36.8提高到52.52。
Brock等人[18]提出了一种通过在最大规模上训练生成对抗网络的方法,成功地从ImageNet等复杂数据集中生成了高分辨率、多样化的样本。他们将正交正则化应用于生成器,并使用了一个简单的“截断技巧”,允许通过减少生成器输入的方差来实现样本完整性和多样性之间的权衡。通过使用该方法,在类条件图像合成任务上实现了新的最先进水平。
4.1.2图像修补图像修补是重建图像缺失部分的过程,使观察者无法分辨这些区域是否经过修补。该技术通常用于从图像中删除不想要的对象或者将旧照片中损坏的部分进行修复。
Yu等人[19][20]研究提出了一种新的基于深度学习的图像修补系统。该系统是基于从数百万张图像中学习到的门控卷积,且不需要额外的标记。该方法使用的门控卷积解决了将所有输入像素视为有效像素的普通卷积问题,还通过在所有层的每个空间位置为每个通道提供一个可学习的动态特征选择机制来推广部分卷积。结果表明,该系统比以前的方法实现了更高质量的结果。
4.1.3超分辨率超分辨率任务的主要功能是从较低分辨率的原始图像生成高分辨率的图像。Karras等人[21]提出了一种新的生成式对抗网络的训练方法。该研究的主要思想是逐步发展生成器和判别器:即从低分辨率开始逐步添加新的层,并伴随着训练的进展建模越来越多的细节。这既可以加快训练速度,又能够保证稳定性,从而生成了高质量图像。
除了GANs中一般的对抗性损失外,SRGAN模型[22]通过在超分辨率区域添加内容损失,如像素级MSE损失来扩大损失,从而导致感知损失。SRGAN生成器以一个低分辨率的图像为基础,并通过4倍的放大因子推断出逼真的自然图像。与大多数GAN应用不同,对抗性损失是更大的损失函数的一个组成部分,它还包括来自预训练的分类器的感知损失,以及空间相关图像的正则化损失。在这种情况下,对抗性的损失限制了自然图像流形的整体解决方案,产生了感知上更有说服力的解决方案。相关的训练数据集往往因可用性不足而阻碍实验。在实践中,内容损失的选择取决于应用任务。SRGAN的内容损失有标准像素级MSE损失LSRMSE等。研究者表明,不同的内容损失根据不同的评价指标的表现不同。
此外,SRGAN可以直接定制到特定的领域,因为通过下采样得到的高分辨率图像,加入到语料库中,可以很容易地构建新的训练图像对。这在实践中是一个重要的考虑因素,因为GAN生成的推断的逼真细节将随着训练集中使用图像的领域改变而变化。实验证明SRGAN比传统方法具有更优越的感知性能。
4.1.4目标检测目标检测是指在图像或视频中寻找真实世界目标的实例,如人脸、自行车和建筑物的过程。为了提高小目标检测的效果,Li等人[23]提出了一种新的感知生成对抗网络(感知GAN)模型,它可以改进模型对于小目标检测的效果。具体地说,它的生成器将感知到的小目标的表示转移到与真实的大物体足够相似的超分辨表示上,以欺骗相互竞争的判别器。同时,它的判别器与生成器通过竞争以识别生成的表示,并施加了额外的感知要求。
研究者使用感知GAN检测小目标,包括交通标志和行人,取得了良好的效果。此外,GAN网络还可以对具有变形和遮挡的目标进行识别。王等人[24]使用GANs来生成具有变形和遮挡的实例,目标是生成目标检测器难以进行分类的目标。而通过使用分段器和GANs,Segan[25]提出的方法能够检测到图像中被其他物体遮挡的物体,具有很好的效果。
4.1.5视频生成GANs已经在自然图像生成方面取得了惊人的成果,但使用GANs进行视频生成仍然是一个重大的挑战,因为它会遇到与使用GANs进行图像生成相关的所有问题。且由于视频的性质和对时间建模的要求,它还存在增加内存和计算成本的问题。此外,由于记忆和训练稳定性的限制,随着视频分辨率/持续时间的增加,生成变得越来越困难。目前通过GANs进行视频生成研究的焦点是主要有:制作高分辨率视频;将生成的视频长度增加到48帧以上;以及生成更真实的视频,使生成的许多视频内容模糊程度减小。
Vondrick等人[26]提出了一种具有时空卷积体系结构的视频生成对抗网络,可以将场景的前景与背景展开。实验表明,该模型可以以全帧率生成小视频,并能够很好的预测静态图像的可信未来。DVD-GAN[27]能够生成更长的、更高的分辨率的视频,同时引入了特定于视频的生成器和判别器架构。DVD-GAN由两个判别器DS(空间判别器)和DT(时间判别器)组成,其中DS从空间视角对输入帧进行评分,DT从时间视角对输入帧进行评分。
4.2域适应域适应可以被视为一种特殊的情况,即样本和标签空间保持不变而只有概率分布发生变化。Deng等人[28]研究了个人再识别的域适应任务,该任务旨在搜索同一个人的图像,即将同一个人的图像进行配对。他们提出了一种启发式的解决方案,称为相似性保持周期一致的生成对抗网络(SPGAN)。在他们的方法中,SPGAN仅用于图像-图像转换分量。他们分别进行了图像-图像转换和重新识别特征学习。SPGAN由一个Siamese网络(SiaNet)和一个CycleGAN组成。SiaNet拉近了转换的图像和源对应图像,取得了良好的效果。
4.3基于序列数据的应用GANs还在自然语言、音乐、语音、语音和时间序列等序列数据方面取得了成就。序列数据都是离散值,生成离散值的GAN变体大多借用强化学习的策略梯度算法,以规避离散值的直接反向传播。为了输出离散值,生成器作为一个函数,将潜在变量映射到元素不连续的域中。然而如果我们将反向传播作为另一个连续的值生成过程,生成器就会被判别器稳步地引导去生成类似真实的数据,而不是突然跳转到目标离散值[29]。
在语音方面,Vougioukas等人[30]提供了一个生成说话视频的系统,通过对一个人的图像和语音进行学习。该方法能够直接从原始音频中生成主题独立的真实视频。我们的方法可以生成视频的嘴唇运动与音频,以及自然面部表情,如眨眼和眉毛运动。我们通过使用一个具有2个判别器的temporalGAN来实现这一点,它能够捕捉到视频的不同方面。
4.4改进分类和识别在GAN训练完成后,网络模型能够用于其他相关任务。例如,判别器的卷积层输出可以用作特征提取器,使用少量的图像和标签就能够实现输出在这些特征之上[6]。研究人员通过将正则化的L2-SVM分类器应用于从训练过的判别器[11]中提取的特征向量,进行分类。该方法在数据集上均取得了良好的分类效果,即使是复杂的分类数据集。
Shrivastava等人[31]使用GANs来改进合成图像,同时保留它们的注释信息。通过基于GAN改进的合成图像对模型进行训练(即没有真实的训练数据),作者在姿态和凝视估计任务上取得了最先进的性能。同样,使用时空GAN架构[32]进行注视估计和预测也获得了良好的结果。但在某些情况下根据合成数据训练的模型在应用于真实数据[18]时不能很好地推广。
※总 结※
本文介绍了GAN的基本概念及原理,同时对比分析该领域内的发展模型以及使用的评价指标,介绍GAN在各个领域内的应用。GAN是一个强大的数据生成器,随着未来网络体系结构和算法的改进,GAN将有望产生更高质量的图像、音乐、视频以及文本,将会给自然语言处理和计算机视觉领域注入新的活力。
GAN目前仍然是一个不断发展的方向,如何增加生成样本的多样性,探索更有效的评估方法是GAN未来要面临的重要挑战。目前GAN应用于时间序列生成、自然语言处理等其他领域的实例仍然不多,同时近几年GAN与强化学习之间的研究变得紧密,未来GAN将在这些领域具有更大的提升空间和应用。
●相关图表链接:
图1.12020年GAN在各学科领域发表文献数图2.1.1GAN模型的基本结构,GAN的网络结构图3.3.1BiGAN网络图3.5.1DCGAN网络结构图3.5.2SAGAN网络结构图3.6.1LAPGAN网络结构图3.7.1InfoPGAN网络结构图3.8.1AAE网络结构■附录:[1]GoodfellowI,Pouget-AbadieJ,MirzaM,etal.Generativeadversarialnets[J].Advancesinneuralinformationprocessingsystems.2014,27.[2]SmolenskyP.Informationprocessingindynamicalsystems:Foundationsofharmonytheory;cu-cs¬321-86[M].[S.l.]:[s.n.],1986.[3]HintonGE,OsinderoS,TehYW.Afastlearningalgorithmfordeepbeliefnets[J].Neuralcomputation.2006,18(7):1527–1554.[4]SalakhutdinovR,HintonG.Deepboltzmannmachines[C]//PMLR.Artificialintelligenceandstatis¬tics.[S.l.]:PMLR,2009:448–455.[5]HongY,HwangU,YooJ,etal.Howgenerativeadversarialnetworksandtheirvariantswork:Anoverview[J].ACMComputingSurveys(CSUR).2019,52(1):1–43.[6]SalimansT,GoodfellowI,ZarembaW,etal.Improvedtechniquesfortraininggans[J].Advancesinneuralinformationprocessingsystems.2016,29:2234–2242.[7]AliIS,MohamedMF,MahdyYB.Dataaugmentationforskinlesionusingself-attentionbasedprogressivegenerativeadversarialnetwork[J].arXivpreprintarXiv:1910.11960.2019.[8]WangZ,SimoncelliEP,BovikAC.Multiscalestructuralsimilarityforimagequalityassessment[C]//Ieee.TheThrity-SeventhAsilomarConferenceonSignals,Systems&Computers,2003:volume2.[S.l.]:Ieee,2003:1398–1402.[9]MirzaM,OsinderoS.Conditionalgenerativeadversarialnets[J].arXivpreprintarXiv:1411.1784.2014.[10]DonahueJ,KrähenbühlP,DarrellT.Adversarialfeaturelearning[J].arXivpreprintarXiv:1605.09782.2016.[11]RadfordA,MetzL,ChintalaS.Unsupervisedrepresentationlearningwithdeepconvolutionalgener¬ativeadversarialnetworks[J].arXivpreprintarXiv:1511.06434.2015.[12]ZeilerMD,FergusR.Visualizingandunderstandingconvolutionalnetworks[C]//Springer.Europeanconferenceoncomputervision.[S.l.]:Springer,2014:818–833.[13]ZhangH,GoodfellowI,MetaxasD,etal.Self-attentiongenerativeadversarialnetworks[C]//PMLR.Internationalconferenceonmachinelearning.[S.l.]:PMLR,2019:7354–7363.[14]DentonE,ChintalaS,SzlamA,etal.Deepgenerativeimagemodelsusingalaplacianpyramidofadversarialnetworks[J].arXivpreprintarXiv:1506.05751.2015.[15]BurtPJ,AdelsonEH.TheLaplacianpyramidasacompactimagecode[M].[S.l.]:Elsevier,1987:671–679.[16]ChenX,DuanY,HouthooftR,etal.Infogan:Interpretablerepresentationlearningbyinformationmaximizinggenerativeadversarialnets[C].Proceedingsofthe30thInternationalConferenceonNeuralInformationProcessingSystems.[S.l.],2016:2180–2188.[17]MakhzaniA,ShlensJ,JaitlyN,etal.Adversarialautoencoders[J].arXivpreprintarXiv:1511.05644.2015.[18]BousmalisK,SilbermanN,DohanD,etal.Unsupervisedpixel-leveldomainadaptationwithgener¬ativeadversarialnetworks[C].ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.[S.l.],2017:3722–3731.