神经网络和胶囊网络区别: 神经网络每个神经元输出的是一个标量,胶囊网络输出是一个向量。
一个神经元检测一种pattern,例如一个神经元检测往左的鸟嘴,一个神经元是检测往右的鸟嘴。 而胶囊是检测某一个种类的pattern。例如鸟嘴。
其中, W 1 , W 2 W^1, W^2 W1,W2是通过训练决定的,而 C 1 , C 2 C_1, C_2 C1,C2是通过动态路由算法得到的。可以拿max pooling做类比。
通过内积来更新b,即 u i u^i ui与输出向量的内积越大,权重就越高。展开可以看到:
T是一个超参数。从这个结构来看,每一步的输出都是作为下一步的输入,与RNN很相似。
对于一个胶囊网络,具体形式也可以是CNN,将其max pooling和非线性变换用胶囊替代。 上图中,有两个任务,分别是分类和图像重构。
从结果可知使用CapsNet和重构任务效果取得最好。 同时,把MNIST的测试集做affine transformation。是的测试集和训练集分布不一致,在此测试集上,CapsNet效果下降到79%,而CNN下降到66%。
从结果上也说明,CapsNet更加鲁棒。
如何分析 v i v^i vi代表的特征,论文将 v i v^i vi通过重构网络,将其展示为可视化的形式,可以看出去有些v代表是笔画的粗细、旋转等。
重构能力。
训练集和测试集都是重叠的数字,将重叠的数字分离出来。 (并非训练集是非重叠,测试集是重叠。原谅我笑了,的确也说明CapsNet并非像很多文章介绍的那样神奇) 例如第一幅图,是2和7的重叠图案,而标签是2和7,然后2和7重构。
Invariance: 不同的输入,保证输出不变,例如分类问题。 Equivariance:不同的输入,输出也不同。但是对于任务,知道该忽略哪一些不同,有点像attention思想。
例如,CNN中,经过max pooling之后,输出是一样的。 而CapsNet,通过向量的模表示概率(Invariance),方向表示不同,具有Equivariance。 在CapsNet中,其知道输入之间的差别,但是对于最终的概率
attention + Multi-hop 类似于memory network, 见http://www.shuang0420.com/2017/12/04/%E8%AE%BA%E6%96%87%E7%AC%94%E8%AE%B0%20-%20Memory%20Networks/
实验:讲 c i c_i ci通过BP训练和动态路由训练作对比,证明其有效性。