首页
学习
活动
专区
工具
TVP
发布

都说卷积神经网络好 今天就来谈谈它的弊端是啥?

2014年12月4日,Geoffrey Hinton在麻省理工学院就他所谓的胶囊网络项目发表了演讲,并且讨论了CNN的问题。

如果你熟悉CNN,你可以直接问它有什么问题?

卷积层

卷积图层有一组矩阵,在一个称为卷积的过程中被乘以先前的图层输出,以检测一些特征,这些特征可能是基本特征(例如边缘,颜色等级或图案)或复杂特征(例如形状,鼻子,或者嘴巴)所以,这些矩阵被称为过滤器或内核。

合并图层

有不止一种类型的池化层(Max pooling,avg pooling),最常用的是是Max pooling,但对一些任务来说足够好了,而且它减少了网络的维数(没有参数)。

最大合并图层实际上非常简单,你可以预先定义一个过滤器(一个窗口),并将该窗口交换为输入,然后将窗口中包含的最大值作为输出。

哪里不对?

1-反向传播

backprob是一种方法,在一批数据被预先拥有之后,发现每个权重在误差中的贡献,并且大多数良好的优化算法(SGD,ADAM ...)使用反向传播来找到梯度。

反向传播在过去几年一直很好,但并不是有效的学习方式,因为它需要庞大的数据集。

2-平移不变性

当我们说平移不变性的时候,表达的意思是说,方向或位置略有改变的同一物体可能不会激活应该识别的物体的神经元。

如上图所示,如果我们假定有一个神经元是用来检测猫,它的值将随着猫的位置和旋转的变化而改变,数据增强部分地解决了这个问题,但是它并没有完全摆脱它

3-合并图层

合并层是一个很大的错误,因为它丢失了大量有价值的信息,如果我们正在谈论一个人脸识别器,它会忽略部分和整体之间的关系,所以我们必须结合一些特征(嘴巴,双眼,椭圆的脸和鼻子)才能说明是一张脸。

结论

CNN是很棒的,但它有两个非常危险的缺陷,就是池化层和平移不变,幸运的是我们可以减少数据增加的危险,但是有一些东西的出现是我们不能够阻止的,我们只能准备好接受。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180129G0X5LF00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券