前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >《深度学习Ng》课程学习笔记01week2——神经网络基础

《深度学习Ng》课程学习笔记01week2——神经网络基础

作者头像
小爷毛毛_卓寿杰
发布2019-02-13 11:07:53
3340
发布2019-02-13 11:07:53
举报
文章被收录于专栏:Soul Joy HubSoul Joy HubSoul Joy Hub

http://write.blog.csdn.net/mdeditor#!postId=77852727

2.1 二分分类

二分类例子: 判断图片中是否有猫: 将图片RGB矩阵拉伸为向量:

使用上面的特征向量来判断图片中是否有猫。

2.2 logistic 回归

2.3 logistic 回归损失函数

这里给出的是交叉熵损失函数:

2.4 梯度下降法

为了最小化代价函数,找到 w,b 的最优解

对 代价函数对 w,b 求导,再根据学习率,更新 w 和 b :

2.5 到 2.8 是非常基础的导数讲解,这里就不做笔记了。

2.9 logistic 回归中的梯度下降法

2.10 m 个样本的梯度下降

计算步骤为:

2.11 向量化

我们讲上述的计算步骤向量化:

向量化 和 循环的代码对比:

我们可以看到向量化比循环的代码快了300倍左右。

2.12 向量化的更多例子

回到我们梯度下降的步骤,将其改为向量化:

2.13 向量化 logistic 回归

2.14 向量化 logistic 回归的梯度输出

进一步向量化 logistic 回归:

进一步向量化 梯度下降:

2.15 Python 中的广播

例子: 计算事物的能量成分比例:

python 代码如下:

axis = 0,列相加;axis = 1,行相加。

其他例子:

总结:

2.16 关于 python / numpy 向量的说明

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017年09月05日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 2.1 二分分类
  • 2.2 logistic 回归
  • 2.3 logistic 回归损失函数
  • 2.4 梯度下降法
  • 2.9 logistic 回归中的梯度下降法
  • 2.10 m 个样本的梯度下降
  • 2.11 向量化
  • 2.12 向量化的更多例子
  • 2.13 向量化 logistic 回归
  • 2.14 向量化 logistic 回归的梯度输出
  • 2.15 Python 中的广播
  • 2.16 关于 python / numpy 向量的说明
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档