《深度学习Ng》课程学习笔记01week2——神经网络基础

http://write.blog.csdn.net/mdeditor#!postId=77852727

2.1 二分分类

二分类例子: 判断图片中是否有猫: 将图片RGB矩阵拉伸为向量:

使用上面的特征向量来判断图片中是否有猫。

2.2 logistic 回归

2.3 logistic 回归损失函数

这里给出的是交叉熵损失函数:

2.4 梯度下降法

为了最小化代价函数,找到 w,b 的最优解

对 代价函数对 w,b 求导,再根据学习率,更新 w 和 b :

2.5 到 2.8 是非常基础的导数讲解,这里就不做笔记了。

2.9 logistic 回归中的梯度下降法

2.10 m 个样本的梯度下降

计算步骤为:

2.11 向量化

我们讲上述的计算步骤向量化:

向量化 和 循环的代码对比:

我们可以看到向量化比循环的代码快了300倍左右。

2.12 向量化的更多例子

回到我们梯度下降的步骤,将其改为向量化:

2.13 向量化 logistic 回归

2.14 向量化 logistic 回归的梯度输出

进一步向量化 logistic 回归:

进一步向量化 梯度下降:

2.15 Python 中的广播

例子: 计算事物的能量成分比例:

python 代码如下:

axis = 0,列相加;axis = 1,行相加。

其他例子:

总结:

2.16 关于 python / numpy 向量的说明

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券