Coursera吴恩达《卷积神经网络》课程笔记(4)-- 人脸识别与神经风格迁移

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/red_stone1/article/details/79055467

红色石头的个人网站:redstonewill.com

《Convolutional Neural Networks》是Andrw Ng深度学习专项课程中的第四门课。这门课主要介绍卷积神经网络(CNN)的基本概念、模型和具体应用。该门课共有4周课时,所以我将分成4次笔记来总结,这是第4节笔记,主要介绍卷积神经网络的特殊应用:人脸识别与风格迁移。

1. What is face recognition

首先简单介绍一下人脸验证(face verification)和人脸识别(face recognition)的区别。

  • 人脸验证:输入一张人脸图片,验证输出与模板是否为同一人,即一对一问题。
  • 人脸识别:输入一张人脸图片,验证输出是否为K个模板中的某一个,即一对多问题。

一般地,人脸识别比人脸验证更难一些。因为假设人脸验证系统的错误率是1%,那么在人脸识别中,输出分别与K个模板都进行比较,则相应的错误率就会增加,约K%。模板个数越多,错误率越大一些。

2. One Shot Learning

One-shot learning就是说数据库中每个人的训练样本只包含一张照片,然后训练一个CNN模型来进行人脸识别。若数据库有K个人,则CNN模型输出softmax层就是K维的。

但是One-shot learning的性能并不好,其包含了两个缺点:

  • 每个人只有一张图片,训练样本少,构建的CNN网络不够健壮。
  • 若数据库增加另一个人,输出层softmax的维度就要发生变化,相当于要重新构建CNN网络,使模型计算量大大增加,不够灵活。

为了解决One-shot learning的问题,我们先来介绍相似函数(similarity function)。相似函数表示两张图片的相似程度,用d(img1,img2)来表示。若d(img1,img2)较小,则表示两张图片相似;若d(img1,img2)较大,则表示两张图片不是同一个人。相似函数可以在人脸验证中使用:

  • d(img1,img2)≤τd(img1,img2)≤τd(img1,img2)\leq \tau : 一样
  • d(img1,img2)>τd(img1,img2)>τd(img1,img2)> \tau : 不一样

对于人脸识别问题,则只需计算测试图片与数据库中K个目标的相似函数,取其中d(img1,img2)最小的目标为匹配对象。若所有的d(img1,img2)都很大,则表示数据库没有这个人。

3. Siamese Network

若一张图片经过一般的CNN网络(包括CONV层、POOL层、FC层),最终得到全连接层FC,该FC层可以看成是原始图片的编码encoding,表征了原始图片的关键特征。这个网络结构我们称之为Siamese network。也就是说每张图片经过Siamese network后,由FC层每个神经元来表征。

建立Siamese network后,两张图片x(1)x(1)x^{(1)}和x(2)x(2)x^{(2)}的相似度函数可由各自FC层f(x(1))f(x(1))f(x^{(1)})与f(x(2))f(x(2))f(x^{(2)})之差的范数来表示:

d(x(1),x(2))=||f(x(1))−f(x(2))||2d(x(1),x(2))=||f(x(1))−f(x(2))||2

d(x^{(1)},x^{(2)})=||f(x^{(1)})-f(x^{(2)})||^2

值得一提的是,不同图片的CNN网络所有结构和参数都是一样的。我们的目标就是利用梯度下降算法,不断调整网络参数,使得属于同一人的图片之间d(x(1),x(2))d(x(1),x(2))d(x^{(1)},x^{(2)})很小,而不同人的图片之间d(x(1),x(2))d(x(1),x(2))d(x^{(1)},x^{(2)})很大。

  • 若x(i)x(i)x^{(i)},x(j)x(j)x^{(j)}是同一个人,则||f(x(1))−f(x(2))||2||f(x(1))−f(x(2))||2||f(x^{(1)})-f(x^{(2)})||^2较小
  • 若x(i)x(i)x^{(i)},x(j)x(j)x^{(j)}不是同一个人,则||f(x(1))−f(x(2))||2||f(x(1))−f(x(2))||2||f(x^{(1)})-f(x^{(2)})||^2较大

具体网络构建和训练参数方法我们下一节再详细介绍。

4. Triplet Loss

构建人脸识别的CNN模型,需要定义合适的损失函数,这里我们将引入Triplet Loss。

Triplet Loss需要每个样本包含三张图片:靶目标(Anchor)、正例(Positive)、反例(Negative),这就是triplet名称的由来。顾名思义,靶目标和正例是同一人,靶目标和反例不是同一人。Anchor和Positive组成一类样本,Anchor和Negative组成另外一类样本。

我们希望上一小节构建的CNN网络输出编码f(A)f(A)f(A)接近f(D)f(D)f(D),即||f(A)−f(D)||2||f(A)−f(D)||2||f(A)-f(D)||^2尽可能小,而||f(A)−f(N)||2||f(A)−f(N)||2||f(A)-f(N)||^2尽可能大,数学上满足:

||f(A)−f(P)||2≤||f(A)−F(N)||2||f(A)−f(P)||2≤||f(A)−F(N)||2

||f(A)-f(P)||^2\leq ||f(A)-F(N)||^2

||f(A)−f(P)||2−||f(A)−F(N)||2≤0||f(A)−f(P)||2−||f(A)−F(N)||2≤0

||f(A)-f(P)||^2-||f(A)-F(N)||^2\leq 0

根据上面的不等式,如果所有的图片都是零向量,即f(A)=0,f(P)=0,f(N)=0f(A)=0,f(P)=0,f(N)=0f(A)=0,f(P)=0,f(N)=0,那么上述不等式也满足。但是这对我们进行人脸识别没有任何作用,是不希望看到的。我们希望得到||f(A)−f(P)||2||f(A)−f(P)||2||f(A)-f(P)||^2远小于||f(A)−F(N)||2||f(A)−F(N)||2||f(A)-F(N)||^2。所以,我们添加一个超参数αα\alpha,且α>0α>0\alpha>0,对上述不等式做出如下修改:

||f(A)−f(P)||2−||f(A)−F(N)||2≤−α||f(A)−f(P)||2−||f(A)−F(N)||2≤−α

||f(A)-f(P)||^2-||f(A)-F(N)||^2\leq -\alpha

||f(A)−f(P)||2−||f(A)−F(N)||2+α≤0||f(A)−f(P)||2−||f(A)−F(N)||2+α≤0

||f(A)-f(P)||^2-||f(A)-F(N)||^2+\alpha \leq 0

顺便提一下,这里的αα\alpha也被称为边界margin,类似与支持向量机中的margin。举个例子,若d(A,P)=0.5d(A,P)=0.5d(A,P)=0.5,α=0.2α=0.2\alpha=0.2,则d(A,N)≥0.7d(A,N)≥0.7d(A,N)\geq0.7。

接下来,我们根据A,P,N三张图片,就可以定义Loss function为:

L(A,P,N)=max(||f(A)−f(P)||2−||f(A)−F(N)||2+α, 0)L(A,P,N)=max(||f(A)−f(P)||2−||f(A)−F(N)||2+α, 0)

L(A,P,N)=max(||f(A)-f(P)||^2-||f(A)-F(N)||^2+\alpha,\ 0)

相应地,对于m组训练样本,cost function为:

J=∑i=1mL(A(i),P(i),N(i))J=∑i=1mL(A(i),P(i),N(i))

J=\sum_{i=1}^mL(A^{(i)},P^{(i)},N^{(i)})

关于训练样本,必须保证同一人包含多张照片,否则无法使用这种方法。例如10k张照片包含1k个不同的人脸,则平均一个人包含10张照片。这个训练样本是满足要求的。

然后,就可以使用梯度下降算法,不断训练优化CNN网络参数,让J不断减小接近0。

同一组训练样本,A,P,N的选择尽可能不要使用随机选取方法。因为随机选择的A与P一般比较接近,A与N相差也较大,毕竟是两个不同人脸。这样的话,也许模型不需要经过复杂训练就能实现这种明显识别,但是抓不住关键区别。所以,最好的做法是人为选择A与P相差较大(例如换发型,留胡须等),A与N相差较小(例如发型一致,肤色一致等)。这种人为地增加难度和混淆度会让模型本身去寻找学习不同人脸之间关键的差异,“尽力”让d(A,P)d(A,P)d(A,P)更小,让d(A,N)d(A,N)d(A,N)更大,即让模型性能更好。

下面给出一些A,P,N的例子:

值得一提的是,现在许多商业公司构建的大型人脸识别模型都需要百万级别甚至上亿的训练样本。如此之大的训练样本我们一般很难获取。但是一些公司将他们训练的人脸识别模型发布在了网上,可供我们使用。

5. Face Verification and Binary Classification

除了构造triplet loss来解决人脸识别问题之外,还可以使用二分类结构。做法是将两个siamese网络组合在一起,将各自的编码层输出经过一个逻辑输出单元,该神经元使用sigmoid函数,输出1则表示识别为同一人,输出0则表示识别为不同人。结构如下:

每组训练样本包含两张图片,每个siamese网络结构和参数完全相同。这样就把人脸识别问题转化成了一个二分类问题。引入逻辑输出层参数w和b,输出y^y^\hat y表达式为:

y^=σ(∑k=1Kwk|f(x(i))k−f(x(j))k|+b)y^=σ(∑k=1Kwk|f(x(i))k−f(x(j))k|+b)

\hat y=\sigma(\sum_{k=1}^Kw_k|f(x^{(i)})_k-f(x^{(j)})_k|+b)

其中参数wkwkw_k和bbb都是通过梯度下降算法迭代训练得到。

y^y^\hat y的另外一种表达式为:

y^=σ(∑k=1Kwk(f(x(i))k−f(x(j))k)2f(x(i))k+f(x(j))k+b)y^=σ(∑k=1Kwk(f(x(i))k−f(x(j))k)2f(x(i))k+f(x(j))k+b)

\hat y=\sigma(\sum_{k=1}^Kw_k\frac{(f(x^{(i)})_k-f(x^{(j)})_k)^2}{f(x^{(i)})_k+f(x^{(j)})_k}+b)

上式被称为χχ\chi方公式,也叫χχ\chi方相似度。

在训练好网络之后,进行人脸识别的常规方法是测试图片与模板分别进行网络计算,编码层输出比较,计算逻辑输出单元。为了减少计算量,可以使用预计算的方式在训练时就将数据库每个模板的编码层输出f(x)f(x)f(x)保存下来。因为编码层输出f(x)f(x)f(x)比原始图片数据量少很多,所以无须保存模板图片,只要保存每个模板的f(x)f(x)f(x)即可,节约存储空间。而且,测试过程中,无须计算模板的siamese网络,只要计算测试图片的siamese网络,得到的f(x(i))f(x(i))f(x^{(i)})直接与存储的模板f(x(j))f(x(j))f(x^{(j)})进行下一步的逻辑输出单元计算即可,计算时间减小了接近一半。这种方法也可以应用在上一节的triplet loss网络中。

6. What is neural style transfer

神经风格迁移是CNN模型一个非常有趣的应用。它可以实现将一张图片的风格“迁移”到另外一张图片中,生成具有其特色的图片。比如我们可以将毕加索的绘画风格迁移到我们自己做的图中,生成类似的“大师作品”,很酷不是吗?

下面列出几个神经风格迁移的例子:

一般用C表示内容图片,S表示风格图片,G表示生成的图片。

7. What are deep ConvNets learning

在进行神经风格迁移之前,我们先来从可视化的角度看一下卷积神经网络每一层到底是什么样子?它们各自学习了哪些东西。

典型的CNN网络如下所示:

首先来看第一层隐藏层,遍历所有训练样本,找出让该层激活函数输出最大的9块图像区域;然后再找出该层的其它单元(不同的滤波器通道)激活函数输出最大的9块图像区域;最后共找9次,得到9 x 9的图像如下所示,其中每个3 x 3区域表示一个运算单元。

可以看出,第一层隐藏层一般检测的是原始图像的边缘和颜色阴影等简单信息。

继续看CNN的更深隐藏层,随着层数的增加,捕捉的区域更大,特征更加复杂,从边缘到纹理再到具体物体。

8. Cost Function

神经风格迁移生成图片G的cost function由两部分组成:C与G的相似程度和S与G的相似程度。

J(G)=α⋅Jcontent(C,G)+β⋅Jstyle(S,G)J(G)=α⋅Jcontent(C,G)+β⋅Jstyle(S,G)

J(G)=\alpha \cdot J_{content}(C,G)+\beta \cdot J_{style}(S,G)

其中,α,βα,β\alpha,\beta是超参数,用来调整Jcontent(C,G)Jcontent(C,G)J_{content}(C,G)与Jstyle(S,G)Jstyle(S,G)J_{style}(S,G)的相对比重。

神经风格迁移的基本算法流程是:首先令G为随机像素点,然后使用梯度下降算法,不断修正G的所有像素点,使得J(G)J(G)J(G)不断减小,从而使G逐渐有C的内容和G的风格,如下图所示。

9. Content Cost Function

我们先来看J(G)J(G)J(G)的第一部分Jcontent(C,G)Jcontent(C,G)J_{content}(C,G),它表示内容图片C与生成图片G之间的相似度。

使用的CNN网络是之前训练好的模型,例如Alex-Net。C,S,G共用相同模型和参数。首先,需要选择合适的层数lll来计算Jcontent(C,G)Jcontent(C,G)J_{content}(C,G)。根据上一小节的内容,CNN的每个隐藏层分别提取原始图片的不同深度特征,由简单到复杂。如果lll太小,则G与C在像素上会非常接近,没有迁移效果;如果lll太深,则G上某个区域将直接会出现C中的物体。因此,lll既不能太浅也不能太深,一般选择网络中间层。

然后比较C和G在lll层的激活函数输出a[l](C)a[l](C)a^{[l](C)}与a[l](G)a[l](G)a^{[l](G)}。相应的Jcontent(C,G)Jcontent(C,G)J_{content}(C,G)的表达式为:

Jcontent(C,G)=12||a[l](C)−a[l](G)||2Jcontent(C,G)=12||a[l](C)−a[l](G)||2

J_{content}(C,G)=\frac12||a^{[l](C)}-a^{[l](G)}||^2

a[l](C)a[l](C)a^{[l](C)}与a[l](G)a[l](G)a^{[l](G)}越相似,则Jcontent(C,G)Jcontent(C,G)J_{content}(C,G)越小。方法就是使用梯度下降算法,不断迭代修正G的像素值,使Jcontent(C,G)Jcontent(C,G)J_{content}(C,G)不断减小。

10. Style Cost Function

什么是图片的风格?利用CNN网络模型,图片的风格可以定义成第lll层隐藏层不同通道间激活函数的乘积(相关性)。

例如我们选取第lll层隐藏层,其各通道使用不同颜色标注,如下图所示。因为每个通道提取图片的特征不同,比如1通道(红色)提取的是图片的垂直纹理特征,2通道(黄色)提取的是图片的橙色背景特征。那么计算这两个通道的相关性大小,相关性越大,表示原始图片及既包含了垂直纹理也包含了该橙色背景;相关性越小,表示原始图片并没有同时包含这两个特征。也就是说,计算不同通道的相关性,反映了原始图片特征间的相互关系,从某种程度上刻画了图片的“风格”。

接下来我们就可以定义图片的风格矩阵(style matrix)为:

G[l]kk′=∑i=1n[l]H∑j=1n[l]Wa[l]ijka[l]ijk′Gkk′[l]=∑i=1nH[l]∑j=1nW[l]aijk[l]aijk′[l]

G_{kk'}^{[l]}=\sum_{i=1}^{n_H^{[l]}}\sum_{j=1}^{n_W^{[l]}}a_{ijk}^{[l]}a_{ijk'}^{[l]}

其中,[l][l][l]表示第lll层隐藏层,k,k’分别表示不同通道,总共通道数为n[l]CnC[l]n_C^{[l]}。i,j分别表示该隐藏层的高度和宽度。风格矩阵G[l]kk′Gkk′[l]G_{kk'}^{[l]}计算第lll层隐藏层不同通道对应的所有激活函数输出和。G[l]kk′Gkk′[l]G_{kk'}^{[l]}的维度为n[l]cnc[l]n_c^{[l]} x n[l]cnc[l]n_c^{[l]}。若两个通道之间相似性高,则对应的G[l]kk′Gkk′[l]G_{kk'}^{[l]}较大;若两个通道之间相似性低,则对应的G[l]kk′Gkk′[l]G_{kk'}^{[l]}较小。

风格矩阵G[l](S)kk′Gkk′[l](S)G_{kk'}^{[l](S)}表征了风格图片S第lll层隐藏层的“风格”。相应地,生成图片G也有G[l](G)kk′Gkk′[l](G)G_{kk'}^{[l](G)}。那么,G[l][S]kk′Gkk′[l][S]G_{kk'}^{[l][S]}与G[l][G]kk′Gkk′[l][G]G_{kk'}^{[l][G]}越相近,则表示G的风格越接近S。这样,我们就可以定义出J[l]style(S,G)Jstyle[l](S,G)J^{[l]}_{style}(S,G)的表达式:

J[l]style(S,G)=1(2n[l]Hn[l]Wn[l]C)∑k=1n[l]C∑k′=1n[l]C||G[l][S]kk′−G[l][G]kk′||2Jstyle[l](S,G)=1(2nH[l]nW[l]nC[l])∑k=1nC[l]∑k′=1nC[l]||Gkk′[l][S]−Gkk′[l][G]||2

J^{[l]}_{style}(S,G)=\frac{1}{(2n_H^{[l]}n_W^{[l]}n_C^{[l]})}\sum_{k=1}^{n_C^{[l]}}\sum_{k'=1}^{n_C^{[l]}}||G_{kk'}^{[l][S]}-G_{kk'}^{[l][G]}||^2

定义完J[l]style(S,G)Jstyle[l](S,G)J^{[l]}_{style}(S,G)之后,我们的目标就是使用梯度下降算法,不断迭代修正G的像素值,使J[l]style(S,G)Jstyle[l](S,G)J^{[l]}_{style}(S,G)不断减小。

值得一提的是,以上我们只比较计算了一层隐藏层lll。为了提取的“风格”更多,也可以使用多层隐藏层,然后相加,表达式为:

Jstyle(S,G)=∑lλ[l]⋅J[l]style(S,G)Jstyle(S,G)=∑lλ[l]⋅Jstyle[l](S,G)

J_{style}(S,G)=\sum_l\lambda^{[l]}\cdot J^{[l]}_{style}(S,G)

其中,λ[l]λ[l]\lambda^{[l]}表示累加过程中各层J[l]style(S,G)Jstyle[l](S,G)J^{[l]}_{style}(S,G)的权重系数,为超参数。

根据以上两小节的推导,最终的cost function为:

J(G)=α⋅Jcontent(C,G)+β⋅Jstyle(S,G)J(G)=α⋅Jcontent(C,G)+β⋅Jstyle(S,G)

J(G)=\alpha \cdot J_{content}(C,G)+\beta \cdot J_{style}(S,G)

使用梯度下降算法进行迭代优化。

11. 1D and 3D Generalizations

我们之前介绍的CNN网络处理的都是2D图片,举例来介绍2D卷积的规则:

  • 输入图片维度:14 x 14 x 3
  • 滤波器尺寸:5 x 5 x 3,滤波器个数:16
  • 输出图片维度:10 x 10 x 16

将2D卷积推广到1D卷积,举例来介绍1D卷积的规则:

  • 输入时间序列维度:14 x 1
  • 滤波器尺寸:5 x 1,滤波器个数:16
  • 输出时间序列维度:10 x 16

对于3D卷积,举例来介绍其规则:

  • 输入3D图片维度:14 x 14 x 14 x 1
  • 滤波器尺寸:5 x 5 x 5 x 1,滤波器个数:16
  • 输出3D图片维度:10 x 10 x 10 x 16

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券