|
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有帐号?免费注册
x
最近统计机器学习的课快结束了,正好做一下小小的总结。
4 r0 H5 J# g/ e. ?: \
, _7 }" {1 V \% g. H' C$ FRequirements: 高中概率和一点点本科的概率论,和一些统计机器学习的基础知识。
: b& M9 N9 j' C+ R* J! ^0 s! Z9 Y; L4 A# l(欢迎访问老王论坛:laowang.vip)
00:$ {2 z2 c' t' O8 B2 A9 A7 |(欢迎访问老王论坛:laowang.vip)
; Q( S! `+ _9 z! X7 A8 Y; \最近(其实已经不是最近了)感觉机器学习领域最热门的是两个话题:ChatGPT类型的transformer模型,和Stable Diffusion这类生成式模型。不难注意到,这两类模型在解决两种完全不同的问题:对于一个sequence(序列,很多情况下就是你的输入,以及历史的上下文)他的后续应该是什么,以及给定一组D(一堆数据)找到他在某个空间的分布。对于前者,当你知道每一段输入的下一个词语是什么的时候,你就可以生成文本,而对于后者,除了D是数据,在哪个空间,什么分布,似乎都不是非常明了(当然,你也可能早就了解到这些信息了)。+ ~6 D7 O, p0 ?5 g/ e(欢迎访问老王论坛:laowang.vip)
& j. L8 y/ D/ s(欢迎访问老王论坛:laowang.vip)
遵顼传统地,先给出两个重要量的定义:
1 i9 o8 K9 W6 q7 R: l& DD={x_1, x_2, ……, x_n} 是数据集,其中包含n个元素。以图像生成为例,这些元素就是图片。1 V9 e' e7 o" W(欢迎访问老王论坛:laowang.vip)
θ={z_1, z_2, ……, z_m} 是隐变量。这是一些我们不知道的变量,但我们希望通过算法学习到这些变量,并且用这些变量重构D。
+ _' w# g3 u9 ]4 H- [: c1 X$ F, l+ F- B q, M t(欢迎访问老王论坛:laowang.vip)
其实看不懂也没关系,因为我课上到这里的时候也不清楚这两个量的意义。
- P4 U! I' V8 v# x5 q: G5 `; `# o5 n) L2 N5 B% i% ?2 r( a(欢迎访问老王论坛:laowang.vip)
让我们从最简单也是最符合直觉的GAN开始吧。
* I3 h) r5 I# K" J, I/ L' c8 i2 B
$ w4 H' h0 h+ O4 d01:! I: L2 ~; S1 W9 R% p(欢迎访问老王论坛:laowang.vip)
) H5 Y5 F6 ?4 V+ i& _; H(欢迎访问老王论坛:laowang.vip)
GAN可以用来生成图片,其训练的原理也众所周知:模型分为生成器和鉴别器,生成器负责生成随机的图片,鉴别器负责判断一张图片来自生成器还是来自数据集D。这是一个非常简单而符合直觉的模型:如果模型训练良好,那么生成器就会生成尽可能像原始数据集的图片从而骗过鉴别器,鉴别器在一次次的欺骗中也学会怎么从最微小的差别中判断到底图片来自哪里,那么随着时间的进行,鉴别器愈发精明的同时生成器生成的图片也更能让人信以为真。
# b+ C, r7 B% B' v- X. R! q3 d! G1 }: }(欢迎访问老王论坛:laowang.vip)
那么随之而来的是三个问题。5 {& z; T6 ^3 L1 r8 L2 H(欢迎访问老王论坛:laowang.vip)
模型怎么训练?% P/ h2 o( U0 w `& V(欢迎访问老王论坛:laowang.vip)
鉴别器怎么鉴别?
1 `4 u$ ], g( a 生成器怎么生成?7 d. G3 d. \6 H0 X7 E. I(欢迎访问老王论坛:laowang.vip)
' [* _; y6 y! m0 P. G(欢迎访问老王论坛:laowang.vip)
对于第一个问题有疑惑的人,其实答案是很简单的梯度下降。你只要定义好loss,而pytorch要考虑的就多了(((。只要知道一个loss是可微的那么模型就是可梯度下降的。关于这个如果你不知道什么是梯度下降那么可能去百度一下有无数人比我更能讲清楚。其实基本所有的模型都是这么训练的。
( l. x6 b' p4 r) N, b" z
6 k* ~+ D" ~" t/ @2 J4 Z/ ~ a0 c/ g对于第二个问题,答案是这就是一个简单的图片分类问题,而且还是其中最简单的二分类,任何一个Data Science和ML专业的学生都不会对此感到陌生。, O( W; I* M! ^- T) U3 y(欢迎访问老王论坛:laowang.vip)
第三个问题的答案是,从一个随机的输入开始,经过一个网络就生成了。这个网络在最简单的情况下可以是一个多层感知机(一堆全连接层),或者有卷积,逆向卷积这些CV里常用的网络结构。那么这个模型的输入是什么呢?是一个随机的噪声,更确切的,他是一个高斯噪声。
3 t) ~. ]: i. K n7 s9 H/ e5 ](欢迎访问老王论坛:laowang.vip)
也就是说,这个模型包含两个网络:一个通过随机的噪声生成了图片,一个判断图片的来源。而令人感到惊喜的是,这个随机噪声就是θ。在GAN中,θ并没有被学习到,被学习到的是两个网络。' b$ \4 f0 Z; l Y, ](欢迎访问老王论坛:laowang.vip)
: C7 r$ K& p' {1 M( r(欢迎访问老王论坛:laowang.vip)
至此,θ和D就都被提及了,希望能让大家有个概念。 i. ?! j9 e. z. l! j(欢迎访问老王论坛:laowang.vip)
0 Q3 F/ y% w2 A0 x02:, [$ m* G6 M- a+ v. r N1 k0 t(欢迎访问老王论坛:laowang.vip)
1 ~$ Q; U$ R) o0 \& R在编码器-解码器的架构中,VAE是其中之一。编解码器的架构的意思是,模型有编码器和解码器两个部分(呃……)。编码器把D编码成θ,而解码器从θ中恢复出一个D’。而模型的loss就是D’和D的区别,以及一个kl散度(这个先不必理会)。: t! ^8 T. X# A. Y" w& E(欢迎访问老王论坛:laowang.vip)
3 I* @3 y( `, t一般来说,模型训练完美之后,从一个x∈D经过编码器产生一个θ,用这个θ经过解码器会得到和x完全一样的图像。
) c' h+ b/ U+ l1 \. ?; R2 E3 u @. n6 G4 A* {+ @9 n, [(欢迎访问老王论坛:laowang.vip)
这是我们希望的吗?
P( J8 w, C `6 }8 C5 T* F& D7 _2 ~$ R2 e, I; ]7 B' ](欢迎访问老王论坛:laowang.vip)
其实并不是,我们希望的是获得一些稍微不同的图像。比如我输入的是一张JK的色图,得到了一个隐变量θ,我希望得到的是其他的图片,最好也是色图,最好也是JK题材,而不是获得一个打了马赛克的原图(因为θ一般比输入要小,所以信息多少会丢失一些,因此恢复的图像的质量会变差)。怎么做呢?答案是在θ附近采样。一个符合直觉的猜测是:如果一个θ对应解码后是JK色图,那么他的附近生成的也应该是JK色图。
2 P- h% o3 W. B6 {
0 p4 J& V3 ?; X事实并非如此,要不然也不需要大费周章地搞VAE了。
. |9 k7 V& q4 L" i X. F% \+ g- H& Q' G9 D6 ]) o8 \7 d(欢迎访问老王论坛:laowang.vip)
其实根本原因在于θ所在的空间性质很差。从你当前的位置向某些方向移动或许是JK色图,向另一些方向移动一点点就变成章鱼色图,再朝另外一个方向移动就会变成JK鬼片。在三维的世界里我们有三个正交的方向,然而θ常常有几千的维度,也就是几千个正交的方向。如果不要求每个方向向量完全正交,那么几千的维度可能会产生上万个方向。(这段推导或者模拟都很麻烦)。总之就是,这个空间的性质很差,以至于你没有办法知道你应该去哪里采样。
+ L: O% z7 J/ m1 @5 @( ~* h: C- s% `1 K(欢迎访问老王论坛:laowang.vip)
所以我们需要VAE。
# D _) C( w' h6 {# n5 X- x( L. L4 R" G1 T2 `2 N(欢迎访问老王论坛:laowang.vip)
VAE的一个基本假设是θ应该满足高斯分布。高斯分布是一个性质很好的分布:首先他很圆,所以一个点附近的点和他也是近似的。其次是有些东西是可以计算的,过会就能看见。1 f7 O8 L) N* N+ q9 {7 \6 B, t(欢迎访问老王论坛:laowang.vip)
5 z: C. B; @) ?8 n: Q在VAE的视角下,问题变成了:4 v k- ?! ?; |; f0 e- P(欢迎访问老王论坛:laowang.vip)
我们有:
* h: ?: o; S0 l& r2 [数据的分布:p(D) 我们不知道; h7 u5 _& `% ^' a(欢迎访问老王论坛:laowang.vip)
θ的分布: p(θ) ~N(0, 1) 我们假设他是一个标准正态分布。% W7 ^3 p& Q% C. e(欢迎访问老王论坛:laowang.vip)
现在我们希望将D编码到θ,并且从θ恢复到D。
q, x' _" n4 Q4 s6 T& op(D| θ)是似然,就是从θ还原成D的概率
/ K1 ~, @$ S, ip(θ|D)是后验,既从D编码成θ的概率。(其实这里一般是说在观察到数据D后对θ分布的猜测). ^ K$ `# D! D(欢迎访问老王论坛:laowang.vip)
* n+ x7 U0 b( S: c k0 m(欢迎访问老王论坛:laowang.vip)
那么loss的设计就很简单了。我们希望θ能准确的还原D,所以只需要最大化似然就行。: [- B5 x1 t; C: n6 {' B/ r# y(欢迎访问老王论坛:laowang.vip)
但是这一切怎么计算呢?我们对于似然和后验都不知道,所以我们需要一个好的后验的假设,让似然是可以计算的。我们这门课叫这个东西conjugate priors,
6 @3 P, K, Q1 {; o+ o3 L! C) g# k) Z# t; i" q: R6 q0 v(欢迎访问老王论坛:laowang.vip)
https://en.wikipedia.org/wiki/Conjugate_prior 这里有更多的例子。8 Y0 P Q6 W6 ?(欢迎访问老王论坛:laowang.vip)
6 U; W& e- E3 Z5 @2 [(欢迎访问老王论坛:laowang.vip)
话说回来,既然我们假设了先验,也就是p(θ)是一个正态,那么如果我们假设似然也是高斯,那么后验就可以计算了!+ |- W! K. D# B6 z; n" z(欢迎访问老王论坛:laowang.vip)
7 h; C+ K9 C! D' y) o(欢迎访问老王论坛:laowang.vip)
VAE干的事情就是假设似然也服从一个正态分布,均值和方差就是可以学习的参数。
" _6 {1 ~7 J1 ]1 I$ p& z. c, |) D& c6 k/ N$ c+ z6 z+ v(欢迎访问老王论坛:laowang.vip)
结局就是VAE在一个x给出的θ旁的采样也是和x类似的!3 ~0 F. b& L: M( r; a' y5 \# g(欢迎访问老王论坛:laowang.vip)
$ q7 `( F s2 J4 R8 M3 r那么古尔丹,代价是什么呢?答案是首先,你做出了两个假设。第一个先验的假设还算合理,第二个就完全是为了凑共轭而嗯造出来的,事实上似然几乎不可能是一个高斯,我们只能用一个高斯去近似(这也就是kl散度那一项,目的是让这个高斯尽可能接近真实的似然)。但只有两个参数的高斯何德何能能逼近一个一般需要上万参数才能拟合的分布呢?所以这导致的结果就是:VAE生成的图片很烂。但他保证了你能找到类似的图片。
2 o: X& f. x2 }' R
( l4 f5 ?; A" Z& K6 G; B03:diffusion
" t" ^. t9 I1 N3 q既然一层的VAE是不好用的,那么不如试试叠一堆VAE到一起。你既可以把diffusion理解为一堆VAE,也可以从他的形式上理解为他就是在原图上一点点加高斯噪音,直到图像完全变成噪音后,再从噪音一点点重建图像。效果很好。效果好的一方面是因为网络变深了,因此参数是VAE的几百上千倍,自然能学到更加精细的结构。第二点我觉得是因为一堆高斯的叠加才能拟合复杂的分布,就好像一堆线形层的堆叠才能识别复杂的结构一样。8 ^5 p! _8 P! h, }(欢迎访问老王论坛:laowang.vip)
' `# j0 c2 b% W2 P04:不是,我写不下去了。直接快进到结语部分。& L7 Y3 k' [2 g* u/ { Z(欢迎访问老王论坛:laowang.vip)
2 m( f R1 v: [其实这件事情远比这一点点东西复杂,但怎么能不牵扯到麻烦的概率论和很多机器学习的概念又能讲明白确实不是很容易做到,真这么写了有时候又觉得写得很像是你去知乎也能看到的科普,以及更重要的是我不知道这个论坛怎么写latex,导致写公式异常难受。
% d2 G3 U, H! T& P h. }! r
" y" @5 n* n6 {0 g+ h' o$ E2 N& Q但如果你知道loss是什么,知道什么是正态分布,最好也知道先验,后验和似然,更巧的是这么博学的你竟然不知道VAE,那么可能你会对VAE有个大致的概念。* G6 d# j( m$ _4 c(欢迎访问老王论坛:laowang.vip)
! v: [4 K' }( X(欢迎访问老王论坛:laowang.vip)
% Q! J* |! A% ~; ^; G(欢迎访问老王论坛:laowang.vip)
顺便调研一下真的有人看吗?以及看的人的分布是什么样的,还有有什么计算机相关的问题。主要思索了好久也不知道什么主题好,我会的大家都会,专业的知识网上也有很多现成的。9 j2 H! J* H. G, }( M+ M(欢迎访问老王论坛:laowang.vip)
要不然下一篇讲讲怎么从逻辑门到简单CPU吧,计组和数电我学的还不算太差的。或者有什么关于C++(20以前)或者机器学习的推荐主题?我发现我一旦写下我学过的东西或者给别人讲之后我的印象就会更加深刻,所以可能等着课少一点的时候会再更新一些。( K) P+ w, `% N) V(欢迎访问老王论坛:laowang.vip)
1 }) F( {4 m \2 r6 g0 T( I8 e(欢迎访问老王论坛:laowang.vip)
看了看感觉好像逻辑性和其他芝士帖子没法比,,,有点惭愧
1 z: ^, c' t6 ~) `5 X: s- w3 r# x: B6 M" O, _- q2 H9 p(欢迎访问老王论坛:laowang.vip)
* j8 M E7 Y* A0 { |
评分
-
查看全部评分
|