作者 | 一轩明月
编辑 | NewBeeNLP
在使用卷积神经网络(CNNs)解决计算机视觉任务的时候,视角的改变(角度、位置、剪应力等等)很大程度上会造成网络表现的剧烈波动,从而限制了模型的泛化能力。有鉴于此,一般 CNN 网络都会有海量参数,辅以大规模数据和超强算力来勉强应对。
于是人们针对性的提出了胶囊网络(Hinton, Krizhevsky, & Wang, 2011[1])。胶囊网络旨在借助同一对象不同部分间的关系不随视角切换而改变这一事实,弥合不同视角下的差距。经验证胶囊网络泛化性能优于传统 CNNs,同时对于对抗攻击的鲁棒性更强,准确度更高,显著减少了所需参数量。
本文主要内容有:
- 视角问题介绍
- 胶囊网络介绍
- 路由算法
- 背景知识介绍:EM 算法与高斯混合模型
- 胶囊间动态路由(Sabour, Frosst, & Hinton, 2017[2])
- EM 胶囊矩阵路由(Hinton, Sabour, & Frosst, 2018[3])
看起来有些吓人,别担心,只要没有胶囊恐惧症,你咽下去的只有知识。
视角问题
视角问题源自计算机视觉领域对泛化的追求,谁都希望自己的模型对未知数据具备泛化能力。我将“泛化”这一概念表述为:「经某图像训练后,轻微改动该图像进行测试,二者返回结果具有高度相似性」
之所以强调测试图像是“轻微改动”过的,主要是视角会发生变动。此处将“视角变换”定义为:「某人或某物观测位置的变化」
常见的视角变换有:
- 旋转(旋转90度)
- 平移(左移 30 像素)
- 缩放(放大/靠近,沿 z 轴移动)
视角变换可以是对图像局部,也可以是对图像整体。3 个维度(x,y 或 z)任意一个都可以进行视角变换。理想模型能从任意角度识别出图中汽车
如果能恰当地处理图像的视角变动性,就能进一步提高模型泛化能力。而随着模型泛化性能的提高,模型所需样本和参数会减少,测试准确率会提高。
解决方案
这里我们简单介绍一下针对视角变换问题 CNN 和胶囊网络两个解决方案。两个方案都包括一些表示学习和信息路由的内容。
定义激活结果为
a \in A,模型输入
x \in X,模型
f: X \rightarrow A,
T 为视角变换
CNN 方案——暴力抽取
相较于视角变换,传统 CNNs 追求的是视角不变性,不变性定义为
f(T x)=f(x)
不严谨地讲, CNNs 期望网络忽视掉所施加的视角变换,保持原样输出。为了说明 CNNs 是怎么做到这一点的,先介绍一下数据增强和最大池化(max-pooling)
改善模型泛化能力的流行做法之一是在一些随机增强过的数据样本上进行训练,但该做法被最终证明存在问题且效率低下。
通过数据增强手段学习视角表示的难处在于,多数视角变换需要的是 3D 数据。而绝大多数计算机视觉任务是在 2D 数据上训练的,可进行的操作也就被限制在了 2D 变换上。
我们能施加的视角变换太过有限,模型由此习得的结果就是参数“无能”。经证实,使用数据增强训练得到的 CNN 网络,前面几层不过是彼此之间的旋转,缩放和形式转化。这可能意味着 CNNs 针对每个可能的视角变换分别学了一个“检测器”出来——这也太低效了。
假设已经对每种视角变换都学到了相应的特征检测器,CNNs 接下来就会尝试通过最大池化层将该信息路由出去。
最大池化就是从一组近邻值中将最大值抽出来
f_{\text {pool}}: a_{\text {pooled}}=\max \left(a_{\text {group}}\right)
,具有局部平移不变性,因为最大池化操作并没有将最大值移出所在组,只是将等值的
a_{pooled} 取出来。
最大池化的不变性可以表述为
f_{\text {pool}}\left(T_{\text {localshift}} x\right)=f_{\text {pool}}(x)特征映射后加上最大池化有助于得到视角恒定的模型。比如,对一组带有旋转权重的神经元激活结果进行最大池化,就能从中找出最佳旋转特征,这样模型就具备了旋转不变性。
而这也就是 CNNs 实现视角恒定的方法:根据不同的视角变换学习一系列特征检测器,再对每组变换权重参数进行最大池化,就能得到/分发最佳特征了。当然,最大池化也意味着我们选择抛弃了许多有用信息。
实际上,这种方法并没有所描述的那样简洁、好用。但起码对于表示学习和路由与 CNNs 的结合,你有了直观印象。这种套路或许能带来不错的效果,但也要看到其低效和高开销的一面。
胶囊网络方案
和 CNNs 不同的地方在于,胶囊网络的目标是视角等价性。等价性定义为
f(T x)=T f(x)
不严谨地讲,胶囊网络希望能以一种结构化的方式应对视角变换。如果能以结构化的方式对结果变换,像图像这种复杂分布处理起来会容易一些。
胶囊网络实现等价性分两步:
- 精确表示图像各部分
- 利用“物体各部分之间的关系不随视角变换而改变”的客观现实
假如能识别出图像的基本组成并将其表示出来,那就有望通过这些局部组合来检测更为复杂的对象。
例如,现在告诉你一张图像中有一对眼睛,一个鼻子一张嘴。然后我问你,图像中是不是存在一张脸?你大概就会去核对这些成分是否按特定的结构化方式组织在了一起(眼睛在鼻子上方,嘴巴在鼻子下方等等)如果答案是肯定的,那你就有信心确认图像里确实有一张脸。
之所以有信心是因为眼睛、鼻子和嘴巴间的关系显然可以构成一张脸。这种关系的一大特性就是视角不变性。不论是对脸(对象)进行旋转、平移、调整亮度还是别的什么视角变换,局部(眼睛、鼻子和嘴)和总体(脸)间的关系依然不变。
这就是胶囊网络遵循的原理,同时也是依靠等价性,使用更少数据和参数改善泛化性能的基础
胶囊网络介绍
接下来,我们就详细说说胶囊网络的细节与背后思想。先做一些约定。
我们将图像中的实例称为部件或对象,而“关系”是指部件从属于对象。简单起见,设定胶囊网络只有两层。第一层是低维胶囊(简单部件),第二层则是高维胶囊(复杂对象)。通常情况下,低维胶囊是我们所知道的,高维胶囊是要计算的。
部件与对象的表示
- 精确表示图像中的各个部件
直接对图像各部件建模会非常困难,因为即使是简单的视角变换都会带来像素空间的巨大变动。所以要学习一个流形,使像素空间内视角变换间的差异变得简单且易于建模。
流形和部件呈现方式相关(位置,方向,大小),视角变换后会引起部件姿态的一点小变化。同时鉴于流形设计起来会很复杂,我们用 CNN 来进行学习。
要得到胶囊,先将图像通过 CNN 处理并将特征向量改造成
H^{\prime} \times W^{\prime} \times \text { CapsuleDim}
形状。这一步的目的在于把图像部件信息封装进所学流形之中。
既然将图像各部分视作部件,就要有一个值来表示部件存在可能性,将其约定为呈现概率。
「存储着部件姿态和呈现概率信息的向量就叫做“胶囊”」
信息路由
接着来看怎么通过已探明部件间的组合,去检测更复杂的对象,这一过程叫做“路由”
- 利用“物体各部分之间的关系不随视角变换而改变”的客观现实
因为我们是用姿态矩阵(pose matrix)表示部件和对象的,所以可以用一个权重矩阵来表示部件姿态和其对象姿态间的关系。再提醒一下,视角变换后权重依然不变,因为关系是不随视角变动的。
举例来讲,给定眼睛的姿态向量
p_e,那么对应的脸部姿态
p_f 可表示为
p_{e} \cdot W_{e f} =p_{f}
\Longleftrightarrow f\left(p_{e}\right)=p_{f}
对面部对象进行变换,因为视角不变性的缘故,有
\left(T p_{e}\right) \cdot W_{e f}=T p_{f}
整理替换一下,有
f\left(T p_{e}\right)=T f\left(p_{e}\right)
等价性出现了,
f(T x)=T f(x)
。神经元激活结果明确表达了姿态信息,我们的模型也就有了视角等价性。但怎么能确定预测的姿态就是正确的呢?预测中的脸真的存在吗?
回想上学时抄作业的情景,你找到你的朋友们要答案。如果他们的答案一致那就能确信答案靠谱。如果每个人的答案都不一样,那就无法判别哪个才是正确选项了。
同样的道理,用从图像中抽取出的多个部件/低维胶囊(鼻子,耳朵等)来预测对象/高维胶囊(脸)时,将预测一致性最高的姿态作为高维胶囊的结果,呈现概率大小就是一致性大小。比方说大多数低维胶囊认定了高维胶囊的某个姿态,那就对该姿态设一个高呈现概率(激活高维胶囊)
通常一幅图像里不只有一个对象,所以要对每个高维胶囊重复这一过程。每个低维胶囊分别对各个高维胶囊进行预测,计算预测结果间的一致性并给高维胶囊赋值。
胶囊小结
通过对部件的准确表示和对“对象-部件”关系的视角不变性的利用,我们找到了视角等价转换方式。
首先将图像转换成流形,此时视角变换会带来细微的变化。从图像中抽取各部件的姿态与呈现概率。之后用部件(低维胶囊)分别对对象(高维胶囊)进行预测。对一致性最高的预测结果进行路由,并将不同预测间的一致性与相应呈现概率对应。
注意,低维胶囊的数量和视野内感受野数量相关(太少会导致“拥挤”,一个胶囊表示了多个部件/对象)。
感受野(Receptive Field):卷积神经网络特征所能看到输入图像的区域,也就是网络内部的不同位置的神经元对原图像的感受范围的大小
至于路由实现方式则有很多,下面主要介绍两种
路由算法
胶囊间动态路由
原论文[4]提供了一种简单易懂的胶囊网络标准实现方式。本文主要介绍高维相关部分,更多具体内容可以看论文,或者看视频[5]
架构
整体网络由 CNN 流形构成,分类任务中的所有结果都能通过单层低维胶囊和单层高维胶囊进行表示。(MNIST 上是 10 个类别/高维胶囊)
求解过程分两步:
- 使用 CNN 抽取低维胶囊
- 计算高维胶囊
胶囊使用 8 维向量表示,呈现概率对应胶囊数值大小。通过标准 CNN 抽取特征,再对特征重新塑形(reshape)来生成胶囊。
预测计算
低维胶囊结合权重
W_{ij} 计算高维结果。第
i 个低维胶囊对第
j 个高维胶囊的预测用
\hat{u}_{j \mid i} 表示
u_{i} \cdot W_{i j}=\hat{u}_{j | i}
对第
j 个高维胶囊而言,有
I 个预测结果(
\hat{u}_{j \mid 1},\hat{u}_{j \mid 2},\dots,\hat{u}_{j \mid I}),每一个结果对应于一个低维胶囊。三步走骤迭代计算一致性
- 计算高维胶囊
s_j,即预测结果的线性组合
- 对
s_j 使用压缩函数进行处理
- 对内点(inlier,可接受范围内被认为是正确的结果)升权
首先给预测结果分配权重,胶囊
j 的权重为
b_{j \mid 1}, b_{j \mid 2}, \dots, b_{j \mid I},初始值为 0
为确保每个部件只对应一个对象,对每个低维胶囊的路由权重进行 softmax
c_{i}=\operatorname{softmax}\left(b_{ij}\right)
低维胶囊的路由权重与预测结果的线性组合得到各高维胶囊的姿态
s_js_{j}=\sum_{i} c_{ij} \hat{\mathbf{u}}_{j \mid i}
进行压缩保证
\left\|\mathbf{v}_{\mathbf{j}}\right\| \leqslant 1v_{j}=\frac{\left\|\mathbf{s}_{\mathbf{j}}\right\|^{2}}{1+\left\|\mathbf{s}_{\mathbf{j}}\right\|^{2}} \frac{s_{j}}{\left\|\mathbf{s}_{\mathbf{j}}\right\|}
接着更新权重
b_{j \mid i} 以反映胶囊对结果
v_j 的意见一致性。就是向量点积
b_{j \mid i}=b_{j \mid i}+\left(\hat{u}_{j \mid i} \cdot v_{j}\right)
因为
\hat{u}_{j \mid i} \cdot v_{j}=\left\|\hat{\mathbf{u}}_{j \mid i}\right\|\left\|\mathbf{v}_{j}\right\| \cos \theta ,
\theta 是向量间夹角,当
\theta = 0 ,
\cos \theta 取得最大值。这样就加大了对接近
v_j 的向量的权重。
实际上,我们会重复迭代 3-5 次来确认一致性。迭代过程有些像寻找预测结果的聚类质心
上图是视频教程中的案例,每一点对应一个预测结果
\hat{\mathbf{u}}_{j \mid i}。点的颜色越深对应路由权重
c_i 越大。Mean
代表高维胶囊值
v_j。鉴于网上对该算法介绍的资料众多,本文就说到这里。论文中的算法流程
EM 胶囊矩阵路由
接着要说到的算法是 EM 矩阵路由。因为这个算法相对复杂且资料少,我们重点介绍一下
背景知识
假设我们的数据分布是多峰的(多于一个驼峰)。要用高斯分布对数据建模的话,单个高斯模型可能无法很好的拟合数据,这时就要用多个高斯分布进行混合了。
假如想用
K 个高斯分布对有
N 条数据的数据集建模,则取得某个值的概率可以表示为
\begin{aligned}
p(x) &=\sum_{K} P(x | z=k) p(z=k) \\
&=\sum_{K} \pi_{k} P(x | z=k) \\
&=\sum_{K} \pi_{k} \mathcal{N}\left(x | \mu_{k}, \sigma_{k}\right)
\end{aligned}
所以要优化的参数是
\theta=\left\{\mu_{1}, \sigma_{1}, \pi_{1}, \ldots, \mu_{K}, \sigma_{K}, \pi_{K}\right\}能优化模型的方法有很多,这里我们采用的是期望最大法(EM)。虽然存在通用 EM 形式可以适应任何潜在分布,但我们这里只用到了高斯混合形式,所以按下不表。算法核心是下面的公式
\begin{aligned}
\frac{d}{d \theta} \log p(x) &=\mathbb{E}_{p(z | x)}\left[\frac{d}{d \theta} \log p(z, x)\right] \\
&=\mathbb{E}_{p(z | x)}\left[\frac{d}{d \theta} \log p(z)+\log p(x | z)\right]
\end{aligned}
计算
\log p(z) 和
\log p(x \mid z) 不难,因为
\log p(z) 是所学得的参数
\pi_k 而
\log p(x \mid z) 可以通过高斯 PDF 公式计算得到
\begin{aligned}
p(z | x) & \propto p(x | z) p(z) \\
p(z=k | x) &=\frac{p(x | z=k) p(z=k)}{\sum_{K} p(x | z=k) p(z=k)} \\
&=\frac{\pi_{k} \mathcal{N}\left(x | \mu_{k}, \sigma_{k}\right)}{\sum_{K} \pi_{k} \mathcal{N}\left(x | \mu_{k}, \sigma_{k}\right)}
\end{aligned}
既然知道了每一项的计算方法,看一下对数似然函数对参数
\mu_{k}, \sigma_{k} ,\pi_{k} 的偏导,为表述简洁,令
r_{k}^{(i)}=p\left(z=k | x^{(i)}\right)=\frac{\pi_{k} \mathcal{N}\left(x^{(i)} | \mu_{k}, \sigma_{k}\right)}{\sum_{K} \pi_{k} \mathcal{N}\left(x^{(i)} | \mu_{k}, \sigma_{k}\right)}
求第
k 个高斯分布均值
\mu_k 的偏导数
\begin{aligned}
\frac{d \ell}{d \mu_{k}} &=\mathbb{E}_{p(z | x)}\left[\frac{d}{d \mu_{k}} \log p(z)+\log p(x | z)\right] \\
&=\sum_{i=1}^{N} r_{k}^{(i)}\left[\frac{d}{d \mu_{k}}\left(\log p(z=k)+\log p\left(x^{(i)} | z=k\right)\right)\right] \\
&=\sum_{i=1}^{N} r_{k}^{(i)}\left[\frac{d}{d \mu_{k}}\left(\log \pi_{k}+\log \mathcal{N}\left(x^{(i)} | \mu_{k}, \sigma_{k}\right)\right)\right] \\
&=\sum_{i=1}^{N} r_{k}^{(i)} \frac{d}{d \mu_{k}} \log \mathcal{N}\left(x^{(i)} | \mu_{k}, \sigma_{k}\right) \\
&=\sum_{i=1}^{N} r_{k}^{(i)}\left(0+\frac{x^{(i)}-\mu_{k}}{\sigma_{k}^{2}}\right) \\
&=\sum_{i=1}^{N} r_{k}^{(i)} \frac{x^{(i)}-\mu_{k}}{\sigma_{k}^{2}}
\end{aligned}
看上去很简洁,令偏导数为 0 可以得到最优值
\mu_{k}^{*} 的估计
\hat{\mu}_{k}^{*},也就是向最优值走了“一步”
\hat{\mu}_{k}^{*}=\frac{\sum_{i=1}^{N} r_{k}^{(i)} x^{(i)}}{\sum_{i=1}^{N} r_{k}^{(i)}}
相似的方法可以得到参数
\theta 的最优估计值
\hat{\theta}^{*}\begin{aligned}
\hat{\pi}_{k}^{*} &\leftarrow \frac{1}{N} \sum_{i=1}^{N} r_{k}^{(i)} \\
\hat{\mu}_{k}^{*} &\leftarrow \frac{\sum_{i=1}^{N} r_{k}^{(i)} x^{(i)}}{\sum_{i=1}^{N} r_{k}^{(i)}} \\
\left(\hat{\sigma_k^{2}}\right)^{*} &\leftarrow \frac{\sum_{i=1}^{N} r_{k}^{(i)}\left(x^{(i)}-\mu_{k}\right)^{2}}{\sum_{i=1}^{N} r_{k}^{(i)}}
\end{aligned}
这样就能用 EM 算法迭代求解了
E 步:计算
r_kr_{k}^{(i)} \leftarrow p\left(z=k | x^{(i)}\right)
M 步:计算并更新参数
\theta 得到近似最优
\hat{\theta}^{*}\theta \leftarrow \arg \max _{\theta} \sum_{i=1}^{N} \sum_{k=1}^{K} r_{k}^{(i)}\left[\log p(z=k)+\log p\left(x^{(i)} | z=k\right)\right]
两步走迭代拟合数据:
- 对拟合最好/最差的分布增加/减少权重
r_k- 更新参数拟合当前权重
有了背景知识,接下来就能讨论怎么用 EM 算法对胶囊路由过程和服从高斯分布的一致性进行建模了
EM 路由矩阵胶囊
假定低维胶囊的投票结果服从多维高斯分布,EM 路由就是要对其建模。结果非常像混合高斯模型中的 EM 算法
每个胶囊对应一个
4 \times 4 的姿态矩阵
M 和激活概率
a,所以每个胶囊的维度是
(4 \times 4 +1)图像经 CNN 处理得到第一层胶囊,然后将特征重塑为
H^{\prime} \times W^{\prime} \times(4 \times 4+1) 形状
预测计算
第
i 个低维胶囊通过习得的
4 \times 4 权重矩阵
W_{ij} 对第
j 个高维胶囊进行预测。论文中的符号稍有变化,为保持一致我们也采用论文中的符号表示。
u_{i} \cdot W_{i j}=\hat{u}_{j \mid i} 变为
M_i \cdot W_{ij} = V_{ij} 。
V_{ij} 是第
i 个低维胶囊对第
j 个高维胶囊的“投票”意见。同时路由权重
b_{j \mid i} 现由
R_{ij} 表示。低维胶囊集合
I 对第
j 个高维胶囊的预测结果
V_{1 j}, V_{2 j}, \ldots, V_{I j},将第
L 层的胶囊表示为
\Omega_{L},低维胶囊是已知条件(
\Omega_{L}),高维胶囊是要计算内容(
\Omega_{L+1})
算法的主要差别是在路由是怎样进行的。
首先,初始化低维到高维的路由权重,均匀分配即可
\forall i \in \Omega_{L}, j \in \Omega_{L+1}: R_{i j} \leftarrow \frac{1}{\left|\Omega_{L+1}\right|}
然后在对高维胶囊的 M 步操作和对低维胶囊的 E 步操作间反复迭代
\forall j \in \Omega_{L+1}: \text { M-STEP }(\mathbf{a}, R, V, j)
M 步执行操作为:
- 因为只关心既有部件和活跃胶囊,所以按照呈现概率对低维胶囊的路由权重重新分配
\forall i \in \Omega_{L}: R_{i j} \leftarrow R_{i j} * a_{i}
- 低维胶囊投票结果符合高斯分布,用 EM 算法计算最优近似参数。因为投票结果
V_{ij} 是多维的,所以要分别对单个维度
h 计算参数
\begin{array}{c}
\forall h: \mu_{j}^{h} \leftarrow \frac{\sum_{i} R_{i j} V_{i j}^{h}}{\sum_{i} R_{i j}} \\
\forall h:\left(\sigma_{j}^{h}\right)^{2} \leftarrow \frac{\sum_{i} R_{i j}\left(V_{i j}^{h}-\mu_{j}^{h}\right)^{2}}{\sum_{i} R_{i j}}
\end{array}
- 再来看下怎么计算高维胶囊的呈现概率
a_j。直觉上,如果投票一致那么高维胶囊就该展现出来,所以可以用高斯模型对投票权重的拟合效果与其概率密度函数(probability density function,PDF)来计算“一致性”
低维胶囊
i 对高维胶囊
j 投票的高斯分布中属性
h 所对应的概率密度函数为
\begin{aligned}
P_{j \mid i}^{h} &=\frac{1}{\sqrt{2 \pi\left(\sigma_{j}^{h}\right)^{2}}} \exp \left(-\frac{\left(V_{i j}^{h}-\mu_{j}^{h}\right)^{2}}{2\left(\sigma_{j}^{h}\right)^{2}}\right) \\
\ln \left(P_{j \mid i}^{h}\right) &=-\frac{\left(V_{i j}^{h}-\mu_{j}^{h}\right)^{2}}{2\left(\sigma_{j}^{h}\right)^{2}}-\ln \left(\sigma_{j}^{h}\right)-\ln (2 \pi) / 2
\end{aligned}
加上路由权重,属性
h 对应的总一致性为
\text {Agreement}_{j}^{h}=\sum_{i} R_{i j} \ln \left(P_{j \mid i}^{h}\right)
接下来就是最大化一致性,取负变成求最小损失,可以简化为
\begin{aligned}
\text{cost}_{j}^{h} &=\sum_{i}-R_{i j} \ln \left(P_{j\mid i}^{h}\right) \\
&=\frac{\sum_{i} R_{i j}\left(V_{i j}^{h}-\mu_{j}^{h}\right)^{2}}{2\left(\sigma_{j}^{h}\right)^{2}}+\left(\ln \left(\sigma_{j}^{h}\right)+\frac{\ln (2 \pi)}{2}\right) \sum_{i} R_{i j} \\
&=\frac{\sum_{i} R_{i j}\left(V_{i j}^{h}-\mu_{j}^{h}\right)^{2}}{2\left(\frac{\sum_{i} R_{i j}\left(V_{i j}^{h}-\mu_{j}^{h}\right)^{2}}{\sum_{i} R_{i j}}\right)}+\left(\ln \left(\sigma_{j}^{h}\right)+\frac{\ln (2 \pi)}{2}\right) \sum_{i} R_{i j} \\
&=\frac{1}{2} \sum_{i} R_{i j}+\left(\ln \left(\sigma_{j}^{h}\right)+\frac{\ln (2 \pi)}{2}\right) \sum_{i} R_{i j} \\
&=\left(\ln \left(\sigma_{j}^{h}\right)+\frac{1}{2}+\frac{\ln (2 \pi)}{2}\right) \sum_{i} R_{i j}
\end{aligned}
可见损失可以表示为输入信息的标准差的线性组合,标准差越小投票的一致性越高,
\sigma_{j}^{h} 决定了损失。所以用下列方式计算损失
\operatorname{cost}^{h} \leftarrow\left(\beta_{u}+\log \left(\sigma_{j}^{h}\right)\right) \sum_{i} R_{i j}
\beta_u 是习得参数。相较于直接使用推导公式中的
\frac{1}{2}+\frac{\ln (2 \pi)}{2} 这样更有灵活性
因为胶囊要么激活要么休眠,所以要定一个激活胶囊的一致性阈值。换句话说,就是需要定一个最大损失,只有损失比该值小,我们才激活。公式表示为
a_{j} \leftarrow \operatorname{logistic}\left(\lambda\left(\beta_{a}-\sum_{h} \operatorname{cost} ^{h}\right)\right)
可见激活胶囊的损失必须小于
\beta_a,
\beta_a 也是要学习的参数
因为初始训练时结果是随机的,因此引入
\lambda 来放松一点激活胶囊的限制,保证梯度可以正常更新。随着预测愈加准确,也会相应增强对训练过程的限制。逻辑斯蒂函数也是通过判断结果是否大于某一阈值来决定是否激活胶囊
这就是 M 步要做的事情,求解低维胶囊投票结果背后的高斯分布的最优估计参数,并通过高斯分布的标准差大小决定是否激活高维胶囊。
下面来看看简单一些的 E 步,这一步主要是依照对高维高斯的意见一致性更新权重
R_{ij}\forall i \in \Omega_{L}: \text { E-STEP }(\mu, \sigma, \mathbf{a}, V, i)
- 首先计算高维胶囊的票选一致性
\forall j \in \Omega_{L+1}: p_{j} \leftarrow \frac{1}{\sqrt{\prod_{h} 2 \pi\left(\sigma_{j}^{h}\right)^{2}}} \exp \left(-\sum_{h} \frac{\left(V_{i j}^{h}-\mu_{j}^{h}\right)^{2}}{2\left(\sigma_{j}^{h}\right)^{2}}\right)
- 接着计算路由权重
a_j p_j 并归一化,保证总权重为 1
\forall j \in \Omega_{L+1}: R_{i j} \leftarrow \frac{a_{j} p_{j}}{\sum_{k \in \Omega_{L+1}} a_{k} p_{k}}
R_{ij} 的计算方法和
r_{k}^{(i)} 一样。首先计算
p(x \mid z), 即
p_j, 和
p(z) ,即
a_j ,然后归一化以满足贝叶斯规则。我们只是改变了计算
a_j 的方式。
迭代完成后,
a_j 就是呈现概率,
\mu_j 就是高维胶囊的姿态。EM 路由矩阵胶囊大体过程就是这样了,依照论文可以总结为
EM 路由小结
我们首先了解了混合高斯模型中 EM 算法的应用,知道了如何使用这种方法对投票结果进行高斯拟合从而实现路由目的
之后先介绍了 M 步操作,这里求解出低维胶囊投票结果背后的高斯分布的最优估计参数,并依靠投票间一致性的大小判断是否激活高维胶囊。
随后提到了 E 步操作,凭借投票和高维高斯间的拟合效果重新计算了路由权重
当下胶囊网络没达到 SOTA 的主要原因在于主流硬件未对这类算法进行优化,无法实现大规模计算
本文参考资料
[1]
Hinton, Krizhevsky, & Wang, 2011: https://gebob19.github.io/capsule-networks/#tae
[2]
Sabour, Frosst, & Hinton, 2017: https://gebob19.github.io/capsule-networks/#drbc
[3]
Hinton, Sabour, & Frosst, 2018: https://gebob19.github.io/capsule-networks/#mcwer
[4]
原论文: https://arxiv.org/pdf/1710.09829
[5]
视频: https://www.youtube.com/watch?v=pPN8d0E3900
- END -