前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >循环神经网络模型

循环神经网络模型

作者头像
Steve Wang
发布2019-05-26 15:00:52
5270
发布2019-05-26 15:00:52
举报
文章被收录于专栏:从流域到海域从流域到海域

整理并翻译自吴恩达深度学习系列视频:序列模型第一周,有所详略。

Recurrent Neural Network

在这里插入图片描述
在这里插入图片描述

一个标准的循环神经网络如图所示,在网络的每一个时间步ttt,它接受前一层的激活函数值a&lt;t−1&gt;a^{&lt;t-1&gt;}a<t−1>和输入x&lt;t&gt;x^{&lt;t&gt;}x<t>, 使用权值矩阵使用WaaW_{aa}Waa​和WaxW_{ax}Wax​计算a&lt;t&gt;a^{&lt;t&gt;}a<t>,使用结果a&lt;t&gt;a^{&lt;t&gt;}a<t>和权值矩阵WyaW_{ya}Wya​计算y^&lt;t&gt;\hat{y}^{&lt;t&gt;}y^​<t>,计算方法如第二小节。

Forward Propagation

在这里插入图片描述
在这里插入图片描述

可总结为以下: a&lt;t&gt;=g1(Waaa&lt;t−1&gt;+Waxx&lt;t&gt;+ba)a^{&lt;t&gt;}=g_1(W_{aa}a^{&lt;t-1&gt;}+W_{ax}x^{&lt;t&gt;}+b_a)a<t>=g1​(Waa​a<t−1>+Wax​x<t>+ba​) y^&lt;t&gt;=g2(Wyaa&lt;t&gt;+by)\hat{y}^{&lt;t&gt;}=g_2(W_{ya}a^{&lt;t&gt;}+b_y)y^​<t>=g2​(Wya​a<t>+by​) g1g_1g1​可以使用tanhtanhtanh、ReLuReLuReLu,g2g_2g2​可以使用sigmoidsigmoidsigmoid。

在这里插入图片描述
在这里插入图片描述

上图右边是向量化版本的实现,它将两个参数矩阵横向堆砌成[Waa∣Wax][W_{aa}|W_{ax}][Waa​∣Wax​]构成WaW_aWa​,将两个输入纵向堆砌成[a&lt;t−1&gt;x&lt;t&gt;][\frac{a^{&lt;t-1&gt;}}{x^{&lt;t&gt;}}][x<t>a<t−1>​](横线表示分隔符不是除法)。

Backward Propagation

在这里插入图片描述
在这里插入图片描述

循环神经网络的反向传播同其他网络一致,按反方向计算导数,编程时框架会自动帮我们处理反向传播,但了解其基本原理也是有助益的。

在这里插入图片描述
在这里插入图片描述

如上图所示,需注意,每一个横向上的参数矩阵是共享的,Wy、byW_y、b_yWy​、by​用于每次计算y&lt;t&gt;^\hat{y^{&lt;t&gt;}}y<t>^​,Wa、baW_a、b_aWa​、ba​也用于每次计算x&lt;t&gt;x^{&lt;t&gt;}x<t>。

其损失函数使用的是交叉熵(cross entropy loss)。 L&lt;t&gt;(y^&lt;t&gt;,y&lt;t&gt;)=−y&lt;t&gt;logy^&lt;t&gt;−(1−y&lt;t&gt;)log(1−y^&lt;t&gt;))\mathcal{L}^{&lt;t&gt;}(\hat{y}^{&lt;t&gt;},y^{&lt;t&gt;})=-y^{&lt;t&gt;}log\hat{y}^{&lt;t&gt;}-(1-y^{&lt;t&gt;})log(1-\hat{y}^{&lt;t&gt;}))L<t>(y^​<t>,y<t>)=−y<t>logy^​<t>−(1−y<t>)log(1−y^​<t>)) L(y^&lt;t&gt;,y)=∑t=1TL&lt;t&gt;(y^&lt;t&gt;,y&lt;t&gt;)\mathcal{L}(\hat{y}^{&lt;t&gt;},y)=\sum_{t=1}^{T}\mathcal{L}^{&lt;t&gt;}(\hat{y}^{&lt;t&gt;},y^{&lt;t&gt;})L(y^​<t>,y)=t=1∑T​L<t>(y^​<t>,y<t>)

其他种类的RNN

在这里插入图片描述
在这里插入图片描述

根据输入和输出的对应关系,RNN有图示几种结构,即一对一、一对多、多对一、多堆多。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019年01月16日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Recurrent Neural Network
  • Forward Propagation
  • Backward Propagation
  • 其他种类的RNN
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档