前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >逻辑回归(NN Mindset)

逻辑回归(NN Mindset)

作者头像
用户2183996
修改2019-09-22 17:44:52
5563
修改2019-09-22 17:44:52
举报
文章被收录于专栏:技术沉淀技术沉淀

开公众号啦,分享读书心得,欢迎一起交流成长。

Andrew CS230: Deep Learning课程笔记。Logistic Regression with a Neural Network mindset

Forward

LR由输入到Loss,可看做简易神经网络的前向传播。其计算过程可用计算图表示:

lr-computation-graph

其中z和线性回归的输出是完全一致的。$\hat y = a = \sigma(z)$,a作为activation的简写,和神经网络的激活函数保持一致。$\sigma$表示sigmoid函数,是激活函数的一种。

Backward

LR由Loss对变量求导,可看做简易神经网络的反向传播。其计算过程可用计算图表示:

lr-derivative

利用链式求导法则,az都是中间变量,最后对wb求导。注意$a=\sigma(z)$的导数是$a(1-a)$,简单也好推导,记住即可。

Vectorization

对多个training sample,用循环性能很差,利用科学计算的向量化。通过推导得到$dz = A - Y$,然后计算$dw = \frac{1}{m}X dz^T$和$db = \frac{1}{m} np.sum(dz)$。关于$\frac{1}{m}$可这样理解,每一个样本在对梯度计算都有贡献,取平均值。

lr-vectorization

求出中间量$dz$,然后计算$dw$和$db$。

lr-vectorization-1

注意此时$db$是(1, 1),而$dw$是(n, 1)。

lr-impl

每次迭代,更新$w$和$b$,直到满足退出条件。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018.06.23 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Forward
  • Backward
  • Vectorization
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档