互怼的艺术:从零直达WGAN-GP
By 苏剑林 | 2017-06-08 | 320025位读者 |前言 #
GAN,全称Generative Adversarial Nets,中文名是生成对抗式网络。对于GAN来说,最通俗的解释就是“伪造者-鉴别者”的解释,如艺术画的伪造者和鉴别者。一开始伪造者和鉴别者的水平都不高,但是鉴别者还是比较容易鉴别出伪造者伪造出来的艺术画。但随着伪造者对伪造技术的学习后,其伪造的艺术画会让鉴别者识别错误;或者随着鉴别者对鉴别技术的学习后,能够很简单的鉴别出伪造者伪造的艺术画。这是一个双方不断学习技术,以达到最高的伪造和鉴别水平的过程。 然而,稍微深入了解的读者就会发现,跟现实中的造假者不同,造假者会与时俱进地使用新材料新技术来造假,而GAN最神奇而又让人困惑的地方是它能够将随机噪声映射为我们所希望的正样本,有噪声就有正样本,这不是无本生意吗,多划算~
另一个情况是,自从WGAN提出以来,基本上GAN的主流研究都已经变成了WGAN上去了,但WGAN的形式事实上已经跟“伪造者-鉴别者”差得比较远了。而且WGAN虽然最后的形式并不复杂,但是推导过程却用到了诸多复杂的数学,使得我无心研读原始论文。这迫使我要找从一条简明直观的线索来理解GAN。幸好,经过一段时间的思考,有点收获。
在正文之前,先声明:笔者所有的GAN的知识,仅仅从网上的科普文所读而来,我并没有直接读过任何关于GAN的论文,因此,文中的结果可能跟主流的结果有雷同,也可能有很大出入,而且本文的讲述方法并不符合GAN的历史发展进程。严谨治学者慎入~
注:如无指明,本文所谈到的GAN都是广义的,即包括原始GAN、WGAN等等,对它们不作区分~文中出现的正样本、真实样本,都是指预先指定的一批样本,而生成样本则指的是随机噪声通过生成模型G变换所得的结果。
一道面试题 #
一道经典的面试题是:如果有一个伪随机数程序能够生成[0,1]之间的均匀随机数,那么如何由它来生成服从正态分布的伪随机数?比如怎么将U[0,1]映射成N(0,1)?
这道题不同的角度有不同的做法,工程上的做法有:同时运行n个这样的伪随机数程序,每步产生n个随机数,那么这n个数的和就近似服从正态分布了。不过,这里不关心工程做法,而关心理论上的做法。理论上的做法是:将X∼U[0,1]经过函数Y=f(X)映射之后,就有Y∼N(0,1)了。设ρ(x)是U[0,1]是概率密度函数,那么[x,x+dx]和[y,y+dy]这两个区间的概率应该相等,而根据概率密度定义,ρ(x)不是概率,ρ(x)dx才是概率,因此有
ρ(x)dx=1√2πexp(−y22)dy
那么
∫x0ρ(t)dt=∫y−∞1√2πexp(−t22)dt=Φ(y)
这里0≤x≤1,y∈(−∞,+∞),而Φ(y)是标准正态分布的累积分布函数,所以
y=Φ−1(∫x0ρ(t)dt)
注意到累积分布函数是无法用初等函数显式表示出来的,更不用说它的逆函数了。说白了,Y=f(X)的f的确是存在的,但很复杂,以上解只是一个记号,该算的还是要用计算机算。
正态分布是常见的、相对简单的分布,但这个映射已经这么复杂了。如果换了任意分布,甚至概率密度函数都不能显式写出来,那么复杂度可想而知~
神经大法好 #
现在我们将问题一般化:如何找到映射Y=f(X),把服从均匀分布X映射到指定的分布?在一般情形下,这个指定的分布是通过给出一批具体的分布样本Z=(z1,z2,…,zN)来描述的(比如,给出一批服从正态分布的随机数,而不是给出它的概率密度1√2πe−x2/2。)。
这个问题相当一般化,跟GAN所做的事情也是一样的。也就是说,GAN也是希望把均匀的随机噪声映射成特定分布,这个特定分布由一组“正样本”描述。这样的理解就可以回答我们开头的一个小问题了:为什么GAN可以将噪声变换成正样本?事实上GAN并不是学习噪声到正样本的变换,而是学习均匀分布到指定分布的变换。假如学习成功了,那么输入一个随机噪声,那么就变换成指定分布的数据,而通常来说我们指定的分布是一个比较“窄”的分布(比如指定的正样本是某一类图片的集合,但事实上图片无穷无尽,某一类的图片是相当窄的),所以都会映射到我们眼中的“正样本”去。
前面正态分布的例子已经表明,这个映射f通常都是很复杂的,因此没必要求它的解析解。这时候“神经大法”就登场了:熟悉神经网络的读者都知道,我们总可以用一个神经网络来拟合任意函数,因此,不妨用一个带有多个参数的神经网络G(X,θ)去拟合它?只要把参数θ训练好,就可以认为Y=G(X,θ)了。
可是,问题又来了:拟合什么目标呢?我们怎么知道Y=G(X,θ)跟指定的分布是很接近的呢?
KL距离?JS距离? #
让我们把问题再理清楚一下:我们现在有一批服从某个指定分布的数据Z=(z1,z2,…,zN),我们希望找到一个神经网络Y=G(X,θ),将均匀随机数X映射到这个指定分布中来。
需要特别指出,我们是要比较两个分布的接近程度,而不是比较样本之间的差距。通常来说,我们会用KL距离来描述两个分布的差异:设p1(x),p2(x)是两个分布的概率密度(当然,还有其他距离可以选择,比如Wasserstein距离,但这不改变下面要讨论的内容的实质),那么
KL(p1(x)‖
如果是离散概率,则将积分换成求和即可。KL距离并非真正的度量距离,但是它能够描述两个分布之间的差异,当它是0时,表明两个分布一致。但因为它不是对称的。有时候将它对称化,得到JS距离:
JS\Big(p_1(x),p_2(x)\Big)=\frac{1}{2}KL\Big(p_1(x)\|p_2(x)\Big)+\frac{1}{2}KL\Big(p_2(x)\|p_1(x)\Big)
咦?怎么又回到概率密度了?不是说没给出概率密度吗?没办法,公式就是这样,只好估算一下咯。假设我们可以将实数域分若干个不相交的区间I_1,I_2,\dots,I_K,那么就可以估算一下给定分布Z的概率分布
p_z(I_i)=\frac{1}{N}\sum_{j=1}^{N}\#(z_j\in I_i)
其中\#(z_j\in I_i)表示如果z_j\in I_i,那么取值为1,否则为0,也就是说大家不要被公式唬住了,上式就是一个简单的计数函数,用频率估计概率罢了。
接着我们生成M个均匀随机数x_1,x_2,\dots,x_M(这里不一定要M=N,还是那句话,我们比较的是分布,不是样本本身,因此多一个少一个样本,对分布的估算也差不了多少。),根据Y=G(X,\theta)计算对应的y_1,y_2,\dots,y_M,然后根据公式可以计算
p_y(I_i)=\frac{1}{M}\sum_{j=1}^{M}\#(y_j\in I_i)
现在有了p_z(I_i)和p_y(I_i),那么我们就可以算它们的差距了,比如可以选择JS距离
\text{Loss} = JS\Big(p_y(I_i), p_z(I_i)\Big)
注意y_i是由G(X,\theta)生成的,所以p_y(I_i)是带有参数\theta的,因此可以通过最小化Loss来得到参数\theta的最优值,从而决定网络Y=G(X,\theta)。
神经距离! #
假如我们只研究单变量概率分布之间的变换,那上述过程完全够了。然而,很多真正有意义的事情都是多元的,比如在MNIST上做实验,想要将随机噪声变换成手写数字图像。要注意MNIST的图像是28\times 28=784像素的,假如每个像素都是随机的,那么这就是一个784元的概率分布。按照我们前面分区间来计算KL距离或者JS距离,哪怕每个像素只分两个区间,那么就有2^{784}\approx 10^{236}个区间,这是何其巨大的计算量!
终于,有人怒了:“老子干嘛要用你那逗比的JS距离,老子自己用神经网络造一个距离!”于是他写出带参数\Theta的神经网络:
L\Big(\{y_i\}_{i=1}^M, \{z_i\}_{i=1}^N, \Theta\Big)
也就是说,直接将造出来的y_i和真实的z_i都放进去这个神经网络一算,自动出来距离,多方便。这个思想是里程碑式的,它连距离的定义都直接用神经网络学了,还有什么不可能学的呢?
我们来看看,要是真有这么个L存在,它应该是怎么样的?首先,对于特定的任务来说,\{z_i\}_{i=1}^N是给定的,因此它并非变量,我们可以把它当做模型本身的一部分,因此简写成
L\Big(\{y_i\}_{i=1}^M, \Theta\Big)
接着,别忘记我们是描述分布之间的距离而不是样本的距离,而分布本身跟各个y_i出现的顺序是没有关系的,因此分布之间的距离跟各个y_i出现的顺序是无关的,也就是说,尽管L是各个y_i的函数,但它必须全对称的!这是个很强的约束,当然,尽管如此,我们的选择也有很多,比如
L=\frac{1}{M!}\sum_{\text{对}y_1,\dots,y_M\text{所有的排列求和}} D\Big(y_1,y_2,\dots,y_M, \Theta\Big)
也就是说,我们先找一个有序的函数D,然后对所有可能的序求平均,那么就得到无序的函数了。当然,这样的计算量是\mathcal{O}(M!),显然也不靠谱,那么我们就选择最简单的一种:
L=\frac{1}{M}\sum_{i=1}^M D\Big(y_i,\Theta\Big)
这便是无序的最简单实现,可以简单的理解为:分布之间的距离,等于单个样本的距离的平均。
对抗来了~ #
“等等,你的标题是GAN,你讲了那么一大通,我怎么没感觉到半点GAN的味道呀?对抗在哪里?” 这位看官您别急,马上就有了~(这位看官,看来你就是等着看干架的呀^_^)
前面说到,用神经网络来学习一个距离L,最终简化版的形式,应该是这样的
L=\frac{1}{M}\sum_{i=1}^M D\Big(y_i,\Theta\Big)
问题是:D(Y,\Theta)怎么训练?别忘了,之前的G(X,\theta)还没有训练好,现在又弄个D(Y,\Theta)出来,越搞越复杂,小心跳到坑里出不来了~(GAN还真的是个大坑)
对抗终于来了...
因为D(Y,\Theta)的均值,也就是L,是度量两个分布的差异程度,这就意味着,L要能够将两个分布区分开来,即L越大越好;但是我们最终的目的,是希望通过均匀分布而生成我们指定的分布,所以G(X,\theta)则希望两个分布越来越接近,即L越小越好。这时候,一个天才的想法出现了:互怼!不要怂,gan!
首先我们随机初始化G(X,\theta),固定它,然后生成一批Y,这时候我们要训练D(Y, \Theta),既然L代表的是“与指定样本Z的差异”,那么,如果将指定样本Z代入L,结果应该是越小越好,而将Y代入L,结果应该是越大越好,所以
\begin{aligned}\Theta =& \mathop{\text{argmin}}_{\Theta} L = \mathop{\text{argmin}}_{\Theta} \frac{1}{N}\sum_{i=1}^N D\Big(z_i,\Theta\Big)\\
\Theta =& \mathop{\text{argmax}}_{\Theta} L = \mathop{\text{argmax}}_{\Theta} \frac{1}{M}\sum_{i=1}^M D\Big(y_i,\Theta\Big)\end{aligned}
然而有两个目标并不容易平衡,所以干脆都取同样的样本数B(一个batch),然后一起训练就好:
\begin{aligned}\Theta =& \mathop{\text{argmax}}_{\Theta} L_1\\
=&\mathop{\text{argmax}}_{\Theta} \frac{1}{B}\sum_{i=1}^B\left[D\Big(y_i,\Theta\Big)-D\Big(z_i,\Theta\Big)\right]\end{aligned}
很自然,G(X,\theta)希望它生成的样本越接近真实样本越好,因此这时候把\Theta固定,只训练\theta让L越来越小:
\begin{aligned}\theta =& \mathop{\text{argmin}}_{\theta} L_2\\
=&\mathop{\text{argmin}}_{\theta} \frac{1}{B}\sum_{i=1}^B\left[D\Big(G(x_i,\theta),\Theta\Big)\right]\end{aligned}
这就是天才的对抗网络!
需要指出的是:
1、这里的Loss写法跟传统的GAN相反,习惯性的做法是让真实样本的L越大越好,但这只不过跟本文差了个负号而已,不是本质的问题;
2、从GAN开始,D这个神经网络就被赋予了“判别器”的意义,但在这里D本身是没有意义的(正如我们不能说某个数是不是正态分布的),只有D的平均值L才代表着与真实分布的差距(我们只能根据一批数据来估计它是否服从正态分布),所以从这里也可以看到,GAN不能单个样本地训练,至少成批训练,因为有一批样本才能看出统计特征;
3、咋看上去D只是个二分类问题,而G则要把噪声映射为正样本,貌似D应该比G要简单得多?事实并非如此,它们两者的复杂度至少是相当的。我们可以直观考虑一下它们的工作原理:因为D的均值L直接就给出了输入的数据与指定分布的差异,而要真的做到这一点,那么D要把所有的“正样本”(在某种程度上)都“记住”了才行;而G要生成良好的正样本,基本上也是“记住”了所有的正样本,并通过随机数来插值输出。因此两个网络的复杂度应该是相当的(当然这里的“记住”是形象理解,不是真的强行记住了,不然就是过拟合了);
4、既然L_1是真伪样本的分布差(的最大值),那么L_1越小,意味着“伪造”的样本质量越好,所以L_1同时也指示着GAN训练的进程,L_1越小,训练得越好。
别走~还没完 #
稍微思考一下,我们就发现,问题还没完。我们目前还没有对D做约束,不难发现,无约束的话Loss基本上会直接跑到负无穷去了~
因此,有必要给D加点条件,一个比较容易想到的方案是约束D的范围,比如能不能给D最后的输出加个Sigmoid激活函数,让它取值在0到1之间?事实上这个方案在理论上是没有问题的,然而这会造成训练的困难。因为Sigmoid函数具有饱和区,一旦D进入了饱和区,就很难传回梯度来更新G了。
最好加什么约束呢?我们应该尽可能从基本原理出发来找寻约束,尽量避免加入人工因素。我们回到距离的作用上来看:距离是为了表明两个对象的差距,而如果对象产生的微小的变化,那么距离的波动也不能太大,这应该是对距离基本的稳定性要求,“失之毫厘,谬以千里”是会产生浑沌的,数学模型不应该是这样。从这个角度来看,那个所谓的“JS距离”,根据就不是距离了,因为就算对于伯努利分布\{0:0.1, 1:0.9\}和\{0:0, 1:1\},这两个相似的分布算出来的“距离”居然是无穷大(因为出现了0.1/0这一项)。
放到我们的D中,这个约束我们该怎么体现呢?假如某个样本不是y_i而是y'_i,假设\|y_i-y'_i\|(用两竖表示欧式距离,因为y可能是个多元向量)并不是十分大,那么会对分布造成一定的影响。这个影响有多大呢?显然不会大,因为分布是一批样本的统计特征,如果只是稍微改变了一个样本,那么分布的变化显然不能大的。而我们知道,分布的距离用D的均值L来描述,只改变一个y_i,所造成的分布差正比于
\| D(y_i,\theta) - D(y'_i , \theta) \|
我们希望y'_i \to y_i时,自然地就有\| D(y_i,\theta) - D(y'_i , \theta) \|\to 0,怎么实现这一点呢?一个简单的方案是D满足以下约束:
\| D(y,\theta) - D(y' , \theta) \| \leq C \|y-y'\|^{\alpha}
这里\alpha > 0,而最简单的方案就是
\| D(y,\theta) - D(y' , \theta) \| \leq C \|y-y'\|
这就是数学中常见的Lipschitz约束。如果能够满足这个约束,那么距离就能满足稳定性要求。注意这是个充分条件,不是必要条件,也可以使用其他方案。但不得不说,这是个简单明了的方案。而使得函数D满足Lipschitz约束的一个充分条件就是:
\left\| \frac{\partial D(y,\Theta)}{\partial y}\right\| \leq C
“罚”出来的成果 #
怎么把这个约束加入到模型中去呢?在
\Theta = \mathop{\text{argmax}}\limits_{\Theta} \frac{1}{B}\sum\limits_{i=1}^B\left[D\Big(y_i,\Theta\Big)-D\Big(z_i,\Theta\Big)\right] = \mathop{\text{argmin}}\limits_{\Theta} \frac{1}{B}\sum\limits_{i=1}^B\left[D\Big(z_i,\Theta\Big)-D\Big(y_i,\Theta\Big)\right]
的基础上,加入个惩罚项就好:
\begin{aligned}\Theta =& \mathop{\text{argmin}}_{\Theta} \frac{1}{B}\sum_{i=1}^B\left[D\Big(z_i,\Theta\Big)-D\Big(y_i,\Theta\Big)\right]+\lambda \max\left(\left\| \frac{\partial D(y,\Theta)}{\partial y}\right\|, 1\right) \end{aligned}
当然惩罚是“软约束”,最终的结果不一定满足这个约束,但却会在约束上下波动。也就是说虽然我们指定了C=1,但最终的C却不一定等于1,不过会在1上下波动,而这也不过是一个更宽松的Lipschitz约束而已,我们不在乎C的具体大小,只要C有上界就好。另外,约束的加法不是唯一的,WGAN的作者Martin Arjovsky在他的论文中提出的加法为:
\begin{aligned}\Theta =& \mathop{\text{argmin}}_{\Theta} \frac{1}{B}\sum_{i=1}^B\left[D\Big(z_i,\Theta\Big)-D\Big(y_i,\Theta\Big)\right]+\lambda \left(\left\| \frac{\partial D(y,\Theta)}{\partial y}\right\| -1\right)^2 \end{aligned}
哪个好?实验结果好像都差不多。
不过,上面的惩罚项都是形式而已,我们还没给出具体的计算方法。理论上最好能够对所有的y(全空间)都算一遍\left\| \frac{\partial D(y,\Theta)}{\partial y}\right\|然后取平均,显然这是做不到的。那么只好用一个退而求其次的方案:只对真实样本z_i和生成样本y_i算。但这样约束范围貌似也太小了,所以干脆在真实样本和生成样本之间随机插值,希望这个约束可以“布满”真实样本和生成样本之间的空间,即
\begin{aligned}\Theta =& \mathop{\text{argmin}}_{\Theta} \frac{1}{B}\sum_{i=1}^B\left[D\Big(z_i,\Theta\Big)-D\Big(y_i,\Theta\Big)\right]+\frac{\lambda }{B}\sum_{i=1}^B\max\left(\left\| \frac{\partial D(y,\Theta)}{\partial y}\right\|_{y=\varepsilon_i y_i + (1-\varepsilon_i)z_i}, 1\right) \end{aligned}
以及
\begin{aligned}\Theta =& \mathop{\text{argmin}}_{\Theta} \frac{1}{B}\sum_{i=1}^B\left[D\Big(z_i,\Theta\Big)-D\Big(y_i,\Theta\Big)\right]+\frac{\lambda }{B}\sum_{i=1}^B\left(\left\| \frac{\partial D(y,\Theta)}{\partial y}\right\|_{y=\varepsilon_i y_i + (1-\varepsilon_i)z_i}-1\right)^2 \end{aligned}
这里的\varepsilon_i是U[0,1]的随机数,这应该已经是我们“力所能及”的最优的方案了。后面这个就是Martin Arjovsky提出的最新的Lipschitz约束的方案,而实验结果表明前一个方案效果也不错。目前它们的大名叫“WGAN-GP”,全称Wasserstein Generative Adversarial Nets - Gradient Penalty。
最后,有人会反驳,梯度有上界,只不过是Lipschitz约束的充分条件,为啥不直接将Lipschitz约束以差分形式加入到惩罚中去呢?(其实有这个疑问的最主要的原因,是很多深度学习框架并没有提供梯度函数;另外,尽管tensorflow提供了梯度函数,但如果判别器用的是RNN,那么梯度函数也是不可用的。)事实上,这样做某种意义上更加合理,我觉得Martin Arjovsky直接用梯度,不过是想写得简单一点~这时候惩罚是
\begin{aligned}\Theta =& \mathop{\text{argmin}}_{\Theta} \frac{1}{B}\sum_{i=1}^B\left[D\Big(z_i,\Theta\Big)-D\Big(y_i,\Theta\Big)\right]+\frac{\lambda }{B}\sum_{i=1}^B\max\left(\frac{|D(y_{i,1},\Theta)-D(y_{i,2},\Theta)|}{\left\| y_{i,1}-y_{i,2}\right\| }, 1\right) \end{aligned}
以及
\begin{aligned}\Theta =& \mathop{\text{argmin}}_{\Theta} \frac{1}{B}\sum_{i=1}^B\left[D\Big(z_i,\Theta\Big)-D\Big(y_i,\Theta\Big)\right]+\frac{\lambda }{B}\sum_{i=1}^B\left(\frac{|D(y_{i,1},\Theta)-D(y_{i,2},\Theta)|}{\left\| y_{i,1}-y_{i,2}\right\| }-1\right)^2 \end{aligned}
这里y_{i,j}=\varepsilon_{i,j} y_i + (1-\varepsilon_{i,j})z_i,也就是每步插值两次,然后用插值的结果算差分。
然后呢? #
暂时没有然后了~终于写完了。这便是我理解的GAN。
通过本文,我们可以一气呵成地直达WGAN-GP,而不需要很多的历史知识和数学知识。有趣的是,我们的推导过程表明,WGAN-GP其实跟Wasserstein距离没有直接的联系,尽管当初WGAN的作者是从Wasserstein距离将它们推导出来的。也就是说,WGAN跟W没啥关系,这就尴尬了,还能好好叫WGAN(Wasserstein GAN)么~另外,有人提问“WGAN相比原始的GAN有什么优势?”,如果根据本文的理论推导,那么原始的GAN根本就不是GAN,因为它不能改写为本文的某个特例!(原因在于,本文的推导基于分布的拟合,而原始GAN的推导基于博弈论,出发点不同。)
这个Loss还有一定的改进空间,比如Loss Sensitive GAN(LS-GAN),还有更广义的GLS-GAN(将LS-GAN和WGAN统一起来了),这些推广我们就不讨论了。不过这些推广都建立在Lipschitz约束之上,只不过微调了Loss,也许未来会有人发现比Lipschitz约束更好的对D的约束~
WGAN-GP的例子 #
最后,分享一个WGAN-GP的实现,以MNIST为数据集,读者可以自己改着玩~
https://github.com/bojone/gan/
训练进度显示~
转载到请包括本文地址:https://kexue.fm/archives/4439
更详细的转载事宜请参考:《科学空间FAQ》
如果您还有什么疑惑或建议,欢迎在下方评论区继续讨论。
如果您觉得本文还不错,欢迎分享/打赏本文。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!
如果您需要引用本文,请参考:
苏剑林. (Jun. 08, 2017). 《互怼的艺术:从零直达WGAN-GP 》[Blog post]. Retrieved from https://kexue.fm/archives/4439
@online{kexuefm-4439,
title={互怼的艺术:从零直达WGAN-GP},
author={苏剑林},
year={2017},
month={Jun},
url={\url{https://kexue.fm/archives/4439}},
}
February 13th, 2019
[...]主要摘录自 GAN(生成对抗网络)学习笔记 , 互怼的艺术:从零直达WGAN-GP , 生成式对抗网络(GAN)基础[...]
February 26th, 2019
苏老师,请问原文中的这句话‘这时候我们要训练D(Y,Θ),既然L代表的是“与指定样本Z的差异”,那么,如果将指定样本Z代入L,结果应该是越小越好’。为什么这里要将Z代入L呢?L中已经有了已知的分布Z,如果再代入Z,那么它们间的距离L不就是0了么
这有两个误区:
1、假如把L训练完美后,那么把z代入L可能结果确实是0,但是目前还没有把L训练好,现在讨论的就是L的训练;
2、其实L是一个广义上的距离,用更准确的话说,它只是一个打分(分数越小越真实),它只有相对比较的意义,而且并不是一定非负。
March 14th, 2019
看你的文档和一些代码
我可不可以通俗的理解为,每轮epoch,每次都会重新产生随机分布。
然后训练的能力就是,让G把任何一个随机分布映射到想要的分布。
话说你\LaTeX代码渲染成蓝色是怎么做到的。
April 11th, 2019
老师,原文中惩罚部分用的是epsilon*生成数据+(1-epsilon)*真实数据,而在代码实现中,用的却是(1-epsilon)*生成数据+epsilon*真实数据,这样优化真的没问题吗
......
我真的极度无语了,这两种方式有差别吗?如果你这都无法理解,真的不知道怎么说了。
May 13th, 2019
学长你好,问一个很朴素的问题,WGAN系列训练到最后接近平衡时,判别器会不会对真实数据的输出为无穷大,对G(z)的输出也是无穷大(但两者的差是约为0的,因为假设平衡G(z)=x),那这时候会不会存在数据溢出的问题?还是说判别器的输出值一般会在一定范围内?
不会,因为wgan的loss都是相对值而不是绝对值,所以优化器没有必要把绝对值搞大,另外还有对抗、正则化等因素在里边,不会发散的。
July 19th, 2019
您好,您在文中说我们是要比较两个分布的接近程度,而不是比较样本之间的差距。那么我们对原始分布肯定学习得很好。如果我的目的不是输出这个服从原始分布的这个数,而最后求出(表示)我的原始分布呢?是通过我用网络产生一大批数,然后用蒙特卡洛仿真求得这个分布吗?比如说,我有一个X经过一个blackbox生成了Y(例如X只有两个值+1,或者—1,并且他们均匀分布,Y=X+N,N为高斯白噪声),我怎样通过给GAN输入X,Y最后求出我的P(y|x)的这个分布(高斯分布)呢。
你这是条件GAN所做的事情,x是条件,y是要生成的目标。
您说的对,我这里的X确实应该是条件。我疑问的一点是,我可以由条件GAN求出我的分布(p(y|x))吗?因为条件GAN中生成器得到的是我训练所得的分布的一个采样。如果我的问题是我想要对于每个Yi,Xi,得到每个p(Yi|Xi)的概率密度的值。难道是由这些生成器生成大量的Yi,然后运用概率统计的数学手段求得p(Yi|Xi)的值吗?我最近看到了一篇论文,文中的问题恰好是我感兴趣的《Approximating the Void: Learning Stochastic Channel Models from Observation with Variational Generative Adversarial Networks》https://ieeexplore.ieee.org/abstract/document/8685573它提出了 Variational Generative Adversarial Networks模型,可以得到这个分布,但是同样我有些疑惑他是怎样得到概率密度的值的,因为我们生成器的输出只是服从这个分布的一个采样数据。这个问题很困惑我。由于我对机器学习刚刚接触,对GAN等了解不深入,表达和理解上也有些问题,有说错的希望不要介意。
一般来说GAN没法得到有效的密度估计,你要做这个事情,需要使用VAE或者flow-based的生成模型。
感谢您的回复
我今天看了您的文章变分自编码器(一),发现VAE模型里面也没有对训练数据的概率密度分布进行显示地表示,给定一组训练数据,VAE表达出它地概率密度分布吗?我目前想到的是无监督学习里面的核密度估计KDE。
你要看VAE系列第二篇才行。另外就你这个目的,最好还是用flow-based的模型吧。
好的,我刚浏览了您的文章,发现了《f-VAEs: Improve VAEs with Conditional Flows》,我学习下。我的目的是,y=x+n(其中x是二项分布x=+1,-1,n是高斯噪声,或者其他分布的噪声)给定一组训练数据Y,我想要求得概率密度分布即p(y|x),我目前使用的是KDE,效果也还可以(可能是因为噪声是高斯的)。我看下您的文章再,谢谢!
August 7th, 2019
我有一个可能是比较白痴的问题哈,在 #一道面试题 这个部分中,您提到 “那么[x,x+dx]和[y,y+dy]这两个区间的概率应该相等”,能具体解释一下为什么吗?为什么映射前和映射后,X,Y在同一个区间内概率相等呢?
自行补习概率论中的概率密度函数的换元变换。
August 13th, 2019
苏老师您好,在这里想请教2个问题。
(1)在您的代码中,判别器的损失函数为:D_loss = tf.reduce_mean(D(real_X)) - tf.reduce_mean(D(random_Y)) + grad_pen。前面两项即为mean(D(真)) - mean(D(假))。而在您的文章中,损失函数公式为mean(D(假)) - mean(D(真)) + 惩罚项。这两个顺序没有影响吗?
(2)我在训练您的代码mnist_gangp.py时发现,D的损失值一直为负数,呈现负数的绝对值不断减小趋势;而G的损失值在前几次训练中出现几次正值后,之后也一直为负数,最后在大约-1.70上下震荡。我有些不确定该如何理解这两个loss的变化趋势。D的负数损失值越大越好?G的负数损失值越小越好?
如:epoch 9000, D_loss: -3.6383207, G_loss: 1.3477468
epoch 10000, D_loss: -3.232983, G_loss: 0.82958585
epoch 11000, D_loss: -3.1710207, G_loss: 0.499738
epoch 12000, D_loss: -3.0055943, G_loss: 0.14831603
epoch 13000, D_loss: -3.0692575, G_loss: -0.38505715
epoch 14000, D_loss: -2.8413265, G_loss: -0.9592465
epoch 15000, D_loss: -2.8109052, G_loss: -1.1374484
epoch 16000, D_loss: -2.7558153, G_loss: -1.4107683
太尴尬了,应该是我昨晚文章没看仔细。今天看了一遍,文章和代码都是mean(D(真)) - mean(D(假))。非常抱歉!
但是上面第2个问题,loss我可能对于负数还是不太确定如何分析。希望得到苏老师的回复~
D_loss本身就应该是负数。这个你看明白整个wgan理论就知道了,-D_loss是w距离的估计,所以-D_loss是正数,也就是D_loss是负数。然后距离在慢慢减小,也就是-D_loss在慢慢减小,也就是D_loss在慢慢增大,越来越接近0。
D_loss如果是负数,优化器让它不断的变小,照理来说不也是越来越往负无穷靠近吗?怎么会往0靠近?优化器不起作用?
那生成器不是让它变大么?
September 7th, 2019
苏神您好,您将D作为了距离衡量而不是判别器,它衡量了距离分布,从这个观点出发,GAN确实不能一个一个训练。但是感觉从博弈论观点来看,将D看做判别器,其实一个一个训练似乎没什么问题呀。有点疑惑。
博弈论观点是什么观点,哪个博弈论观点告诉你可以一个个训练。
October 20th, 2019
苏老师,请问用什么指标来评价生成模型的效果是最合适的呀?有这方面的博客么?
一般就是IS和FID