首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

吴恩达 deeplearning.ai 精炼笔记 1-5:深层神经网络

重磅干货,第一时间送达

原文地址:http://fangzh.top/2018/2018091316/

这一周主要讲了深层的神经网络搭建。

深层神经网络的符号表示

在深层的神经网络中,

前向传播和反向传播

前向传播

input

output,其中cache也顺便把也保存下来了

所以,前向传播的公式可以写作:

维度

假设有m个样本,那么维度就是,的维度和一样。

那么维度就是也就是,这个时候,还需要加上,而本身的维度是,借助python的广播,扩充到了m个维度。

反向传播

input:

output:

公式:

向量化

正向传播和反向传播如图:

具体过程为,第一层和第二层用Relu函数,第三层输出用sigmoid,这个时候的输出值是

而首先进行反向传播的时候先求得,然后再包括之前存在cache里面的,反向传播可以得到,然后继续反向,直到得到了后,更新一下w,b的参数,然后继续做前向传播、反向传播,不断循环。

Why Deep?

如图直观上感觉,比如第一层,它会先识别出一些边缘信息;第二层则将这些边缘进行整合,得到一些五官信息,如眼睛、嘴巴等;到了第三层,就可以将这些信息整合起来,输出一张人脸了。

如果网络层数不够深的话,可以组合的情况就很少,或者需要类似门电路那样,用单层很多个特征才能得到和深层神经网络类似的效果。

搭建深层神经网络块

和之前说的一样,一个网络块中包含了前向传播和反向传播。

前向输入,经过神经网络的计算,得到反向传播,输入,再有之前在cache的,即可得到还有上一层的。

参数与超参数

超参数就是你自己调的,玄学参数:

‍‍‍‍learning_rate

iterations

L = len(hidden layer)

activation function

mini batch size(最小的计算批)

regularization(正则)

momentum(动量)‍‍‍‍

扫描上方二维码关注

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190121G0RS6100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券