http://write.blog.csdn.net/mdeditor#!postId=77852727
二分类例子: 判断图片中是否有猫: 将图片RGB矩阵拉伸为向量:
使用上面的特征向量来判断图片中是否有猫。
这里给出的是交叉熵损失函数:
为了最小化代价函数,找到 w,b 的最优解
对 代价函数对 w,b 求导,再根据学习率,更新 w 和 b :
2.5 到 2.8 是非常基础的导数讲解,这里就不做笔记了。
计算步骤为:
我们讲上述的计算步骤向量化:
向量化 和 循环的代码对比:
我们可以看到向量化比循环的代码快了300倍左右。
回到我们梯度下降的步骤,将其改为向量化:
进一步向量化 logistic 回归:
进一步向量化 梯度下降:
例子: 计算事物的能量成分比例:
python 代码如下:
axis = 0,列相加;axis = 1,行相加。
其他例子:
总结: