Generative Model
数据分布是生成模型的核心。生成模型的目标是学习数据的分布,然后生成新的数据。目标是学习数据的分布,然后生成新的数据。
对生成模型的评价是通过生成的数据的质量来评价的,生成的数据越接近真实数据,生成模型的质量越好。
θ∗=argθmaxEx∼pdatalogpmodel(x∣θ)
GAN: Generative Adversarial Network
对抗机器学习的思想是通过两个网络之间的对抗来学习。生成器和判别器之间的对抗是GAN的核心思想。
使用的博弈问题的思想,使用的是最小化最大的思想。
GAN的思想为:生成器和判别器之间的对抗,生成器生成数据,判别器判断数据的真实性。
目标函数为:
GminDmaxV(D,G)=Ex∼pdata(x)[logD(x)]+Ez∼pz(z)[log(1−D(G(z)))]
- 当生成器固定时,判别器的目标是最大化判别器的准确率:maxDV(D,G)
- 当判别器固定时,生成器的目标是最小化判别器的准确率:minGV(D,G)
生成器 G 的实质是将噪声分布 pz(z)(如高斯分布)映射到数据分布 pg(x)。根据概率密度变换定理,若 G 是可逆且光滑的函数,则生成数据的分布为:
pg(x)=pz(z)⋅det(∂x∂G−1(x))
尽管深度神经网络通常不可逆,但通过足够复杂的函数逼近(如多层非线性变换),生成器可以隐式地学习到从 pz(z) 到 pg(x) 的映射,覆盖真实分布 pdata(x)。
关键点:
- 噪声输入的随机性确保了生成数据分布的多样性。
- 网络的非线性能力允许从简单分布(如高斯分布)逼近复杂分布(如图像像素分布)。
但是GAN的训练过程是非常困难的,梯度性质是不好的,因为在比较好的样本中,由于梯度性质的问题会进行较大的更新。
训练GAN的技巧
DCGAN: Deep Convolutional Generative Adversarial Networks
对于生成器和判别器,使用卷积神经网络来进行训练。对于判别器,使用的是较为标准的CNN网络,对于生成器,使用的是转置卷积,先将特征图进行padding,然后进行卷积操作,这样可以获得一个较大的特征图。
- 生成器:使用转置卷积(反卷积)逐步上采样,生成高分辨率图像。
- 判别器:使用标准CNN逐步下采样。
- 关键技巧:批量归一化、Leaky ReLU、全卷积结构。
证明了泛化定理:在有限的训练样本之下,可以通过训练得到一个泛化的模型。
Inception Score
IS 用于衡量生成模型的性能,重点关注两点:
- 类别明确性:单个生成样本应明确属于某个类别(对应分类概率尖锐)。
- 多样性:生成样本应覆盖多个类别(类别分布均匀)。
IS=exp(Ex∼pg[KL(p(y∣x)∥p(y))])
- Class Probability Distribution: p(y∣x),生成样本 x 属于各个类别的概率,度量的是生成的数据的类别分布和真实数据的类别分布的相似性。
- Marginal Distribution of Generated Data: p(y),度量的是生成的数据的类别分布的多样性,如果生成的数据是单一的称为模式坍塌。
KL Divergence
使用KL散度来度量两个分布的相似性:
KL(p∣∣q)=EX(logq(x)p(x))=x∈X∑p(x)logq(x)p(x)
需要上面的值尽可能偏大
- KL散度的意义:
- p(y∣x) 尖锐 → 分类概率集中(如某类概率接近 1),此时 KL(p(y∣x)∥p(y)) 值大。
- p(y) 均匀 → 生成样本覆盖所有类别,KL 值的期望更大。
- 取指数的作用:将对数空间的值转换为正数,放大差异便于比较。
FID: Frechet Inception Distance
将生成的数据输入一个网络来提取特征,用得到的特征来拟和两个高斯分布,然后计算两个高斯分布的Frechet Inception Distance。这是有显式表达式的。
FID=∥μr−μg∥2+Tr(Σr+Σg−2(ΣrΣg)1/2)
- μr,μg:真实数据和生成数据特征的均值向量。
- Σr,Σg:真实数据和生成数据特征的协方差矩阵。
- Tr(⋅):矩阵的迹(对角线元素之和)。
Mode Collapse
指生成的数据的多样性不够,类别分布是单一的,这是GAN的一个问题。
原始GAN使用JS散度(JSD(pdata∥pg))衡量分布距离,存在:
- 梯度消失:当 pg 和 pdata 无重叠时,JSD=log2,梯度为零。
- 模式坍塌:生成器倾向于生成少数样本。
Wasserstein Distance
沃瑟斯坦度量 - 维基百科,自由的百科全书
有可能统计距离是不是一个好的距离度量。Wasserstein距离是一个好的距离度量,用推土机距离来度量两个分布的距离。
c(x,y)↦[0,∞),
表示从点x运输质量到点y的代价。一个从μ到ν的运输方案可以用函数γ(x,y)来描述,该函数表明从x移动到y的质量。一个运输方案γ(x,y)必须满足以下性质:
∫γ(x,y)dy=μ(x),∫γ(x,y)dx=ν(y),
前者表示从某一点x移到其他所有点的土堆总质量必须等于最初该点x上的土堆质量,后者则表示从所有点移到某一点y的土堆总质量必须等于最终该点y上的土堆质量。
∬c(x,y)γ(x,y)dxdy=∫c(x,y)dγ(x,y).
方案γ并不是唯一的,所有可能的运输方案中代价最低的方案即为最优运输方案。最优运输方案的代价为:
C=γ∈Γ(μ,ν)inf∫c(x,y)dγ(x,y).
Wasserstein GAN
对于模式坍塌进一步的理解,如果空间上有一个较大的利普希茨系数,那么说明发生了模式坍塌。
Spectral Normalization
| 指标 |
JS散度 |
Wasserstein距离 |
| 连续性 |
不连续(梯度消失) |
连续 |
| 对称性 |
对称 |
对称 |
| 计算复杂度 |
低 |
高(需约束判别器) |
Conditional GAN
给定一个类来进行生成数据,这样可以生成不同类别的数据,这样可以生成更加多样的数据。并且可以在一定程度上避免模式坍塌。
除了接受高斯噪声还接受一个标签/图像等等作为输入。
ACGAN: Auxiliary Classifier GAN
是多任务学习的一种方法,除了生成数据,还可以进行分类。在生成数据的过程中还生成标签,所以可以一定程度上避免模式坍塌。
Cycle GAN
无配对数据下的图像转换(如马→斑马),通过循环一致性损失Cyc保证生成的图像在两个方向上的转换是一致的。
Self-Attention GAN
将Self-Attention机制应用到GAN中,这样可以使得生成的数据更加真实。
Adaptive Instance Normalization
AdaIN(u,v)=σ(v)(σ(u)u−μ(u))+μ(v)
本质上为重新着色的操作,将一个图像的风格转移到另一个图像上。
StyleGAN
通过控制风格来生成数据,这样可以生成更加多样的数据。
VAE
Encoder
- 推断潜在变量分布
编码器将输入数据(如图像、文本)映射到潜在空间latent space,输出潜在变量z的概率分布参数(通常是高斯分布的均值和方差)。这一步称为变分推断,目的是找到输入数据在低维潜在空间中的概率表示。
- 数据压缩与特征提取
编码器将高维输入数据压缩到低维潜在变量z,提取数据的关键特征(如形状、颜色等抽象属性),同时去除冗余信息。
- 引入不确定性
不同于传统自编码器的确定性编码,VAE的编码器输出的是分布的参数,通过随机采样生成 zz,使得潜在空间具有连续性,便于生成新样本。
Decoder
- 数据生成
解码器从潜在变量z出发,重构输入数据x的分布(如像素值的伯努利分布或高斯分布),生成与原始数据相似的新样本。
- 潜在空间映射到数据空间
解码器学习如何将低维潜在变量z解码为高维数据空间中的样本,捕捉数据生成过程的规律(如像素间的依赖关系)。
- 生成多样性
由于潜在变量z是连续且概率化的,解码器可以在潜在空间中插值或随机采样,生成多样化且合理的新数据。
Why Variational
其核心目标是通过学习数据分布p(x),生成与训练数据类似的新样本。具体来说,VAE旨在解决以下问题:
- 生成新数据:例如生成图像、文本或音频。
- 学习潜在表示:将高维数据映射到低维潜在空间,同时保持数据的语义特征。
- 概率建模:显式定义数据的生成过程pθ(x∣z),并引入潜在变量z表示数据的隐含因素
在VAE中,我们引入一个潜在变量 z,假设数据 x 是由某个先验分布 pθ(z) 生成,然后通过条件分布 pθ(x∣z) 生成可观测数据 x。
pθ(x)=∫pθ(x∣z)pθ(z)dz
z的分布是一个高斯分布,对于z采样得到的实例,通过一个网络生成x。困难在于上面的反常积分,这是一个高维积分,不可行。可以使用蒙特卡洛。
对于后验分布:
pθ(z∣x)=pθ(x)pθ(x∣z)pθ(z)
在积分中是经常使用的,但是计算是NP-hard的,因此引入变分推断,通过优化下界(ELBO)间接逼近。直接求后验往往是不可行的。因此,我们用变分推断的方式,去学习一个近似后验分布qϕ(z∣x),并用它来逼近真正的后验分布pθ(z∣x),从而得到一个变分下界。
变分的意思为变量的替换,在概率中为分布率的替换。
对于这个问题,可以使用一个神经网络来实现,对于这种显式的分布,需要假设分布率,可以指定为高斯分布,用网络来学习均值和协方差,作为Encoder Network。
对于条件分布pθ(x∣z),也可以假定为高斯分布,这样可以计算均值和协方差,作为Decoder Network。
但是VAE是Intractable的,这个问题是NP-hard的。对于上面的条件概率,是比较困难的。所以采用一个近似的方法来进行求解。比如假设服从一个高斯分布,之后计算这个分布的均值和协方差矩阵。
ELBO: Evidence Lower Bound
训练的目的是使得logpθ(xi)尽可能大,但是很难计算,这里引入“参考系”,也就是引入一个近似的分布qϕ(z∣xi)。
这里是将最大化似然的过程简化为最大化ELBO的过程。
logpθ(xi)=Eqϕ(z∣xi)[logpθ(xi∣z)]−KL(qϕ(z∣xi)∣∣pθ(z))
Reparameterization Trick
在VAE的训练过程中,通常需要从潜在变量的分布中采样。直接从分布中采样可能导致梯度无法传播到编码器网络,因此引入了重参数化技巧。
这是的采样变量是ϵ,这样的话采样的过程就在计算图的旁路上,这样就可以进行梯度的传播。
VAE Inference
在训练的时候是从x中采样得到的,然后由后验分布qϕ(z∣x)来进行采样。而在推理过程中,是从潜在变量z中采样得到的,然后由条件分布pθ(x∣z)来进行进行推理。
上述过程的合理性在于目标函数ELBO中的第二项:KL(qϕ(z∣xi)∣∣pθ(z))在训练中被最小化了。
VQ-VAE
VQ-VAE是对VAE的一个改进,使用了向量量化的方法来进行训练。通过对潜在变量进行离散化来进行训练,这样可以避免模式坍塌的问题。
Diffusion Probabilistic Models
Denoising Diffusion Probabilistic Models
Diffusion模型是通过对数据进行逐步添加噪声来训练模型的。通过对数据进行逐步添加噪声,然后再通过一个网络来进行去噪声的操作。这样可以生成新的数据。
Markovian Process: 逐步添加噪声的过程,通常是一个高斯分布的过程。
q(xt∣xt−1)=N(xt;1−βtxt−1,βtI)
联合分布:
q(x1:T∣x0)=t=1∏Tq(xt∣xt−1)
重参数化表达:
xt=1−βtxt−1+βtϵϵ∼N(0,I)
Diffusion Kernel
xt=1−βtxt−1+βtϵ=αtxt−1+1−αtϵ=αtαt−1xt−2+1−αtϵ+αt1−αt−1ϵ′=αtαt−1xt−2+1−αtαt−1ϵ…=αtx0+1−αtϵ
- 其中 αt=∏s=1tαs
Generation by Denoising
- 首先对于xT进行采样,得到一个高斯分布的样本。
- 然后利用后验分布得到xt−1,使用Bayes公式:
xt−1∼q(xt−1∣xt)∝q(xt−1)q(xt∣xt−1)
采用一个变分方法来实现:
pθ(xt−1∣xt)=N(xt−1;μθ(xt,t),σt2I)
pθ(x0:T)=pθ(xT)t=1∏Tpθ(xt−1∣xt)
上述过程可以使用一个网络来实现对于均值和方差的输出。
What are Diffusion Models? | Lil’Log
Re-design forward Sampling
- Striding Sampling
- 在每个时间步长中跳过多个时间步进行采样,从而减少采样次数。
- 问题在于在相邻的时间戳中反向传播的后验分布可以近似为高斯分布,但是在较大的步长下不一定是这样的。
- DDIM: Denoising Diffusion Implicit Models
- 通过设计一个新的前向采样过程来加速采样。
- 通过引入一个新的参数αt来控制前向采样的过程。
- 通过设计一个新的后验分布来进行采样。
- 通过设计一个新的损失函数来进行训练。