前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python的Numpy实现深度学习常用的函数

Python的Numpy实现深度学习常用的函数

作者头像
夜雨飘零
发布2020-05-06 11:22:43
2.3K0
发布2020-05-06 11:22:43
举报
文章被收录于专栏:CSDN博客

原文博客:Doi技术团队 链接地址:https://blog.doiduoyi.com/authors/1584446358138 初心:记录优秀的Doi技术团队学习经历

目录

文章目录

  • 目录
  • 常用的激活函数
    • sigmoid函数
    • sigmoid函数的梯度
    • tanh函数
    • tanh函数的梯度
    • ReLU函数
  • 图像转矢量
  • 规范化行
  • 广播和softmax函数
  • numpy矩阵的运算
  • 损失函数
    • L1损失函数
    • L2损失函数
  • 参考资料

常用的激活函数

我们常用的激活函数有sigmoid,tanh,ReLU这三个函数,我们都来学习学习吧。

sigmoid函数

在深度学习中,我们经常会使用到sigmoid函数作为我们的激活函数,特别是在二分类上,sigmoid函数是比较好的一个选择,以下就是sigmoid函数的公式:

sigmoid函数的坐标图是:

sigmoid函数
sigmoid函数

sigmoid函数的代码实现:

代码语言:javascript
复制
import numpy as np

def sigmoid(x):
    s = 1 / (1 + np.exp(-x))
    return s

因为是使用numpy实现的sigmoid函数的,所以这个sigmoid函数可以计算实数、矢量和矩阵,如下面的就是当x是实数的时候:

代码语言:javascript
复制
if __name__ == '__main__':
    x = 3
    s = sigmoid(x)
    print s

然后会输出:

代码语言:javascript
复制
0.952574126822

当x是矢量或者矩阵是,计算公式如下:

使用sigmoid函数如下:

代码语言:javascript
复制
if __name__ == '__main__':
    x = np.array([2, 3, 4])
    s = sigmoid(x)
    print s

输出的结果是:

代码语言:javascript
复制
[0.88079708 0.95257413 0.98201379]

sigmoid函数的梯度

为什么要计算sigmoid函数的梯度,比如当我们在使用反向传播来计算梯度,以优化损失函数。当使用的激活函数是sigmoid函数就要计算sigmoid函数的梯度了。计算公式如下:

Python你代码实现:

代码语言:javascript
复制
import numpy as np

def sigmoid_derivative(x):
    s = 1 / (1 + np.exp(-x))
    ds = s * (1 - s)
    return ds

当x是实数时,计算如下:

代码语言:javascript
复制
if __name__ == '__main__':
    x = 3
    s = sigmoid_derivative(x)
    print s

输出结果如下:

代码语言:javascript
复制
0.0451766597309

当x是矩阵或者矢量时,计算如下:

代码语言:javascript
复制
if __name__ == '__main__':
    x = np.array([2, 3, 4])
    s = sigmoid_derivative(x)
    print s

输出结果如下:

代码语言:javascript
复制
[0.10499359 0.04517666 0.01766271]

tanh函数

tanh也是一个常用的激活函数,它的公式如下:

tanh的坐标图是:

这里写图片描述
这里写图片描述

tanh的代码实现:

代码语言:javascript
复制
import numpy as np

def tanh(x):
    s1 = np.exp(x) - np.exp(-x)
    s2 = np.exp(x) + np.exp(-x)
    s = s1 / s2
    return s

为了方便,这里把x是实数、矢量或矩阵的情况一起计算了,调用方法如下:

代码语言:javascript
复制
if __name__ == '__main__':
    x = 3
    s = tanh(x)
    print s
    x = np.array([2, 3, 4])
    s = tanh(x)
    print s

以下就是输出结果:

代码语言:javascript
复制
0.995054753687
[0.96402758 0.99505475 0.9993293 ]

tanh函数的梯度

同样在这里我们也要计算tanh函数的梯度,计算公式如下:

代码语言:javascript
复制
import numpy as np

def tanh_derivative(x):
    s1 = np.exp(x) - np.exp(-x)
    s2 = np.exp(x) + np.exp(-x)
    tanh = s1 / s2
    s = 1 - tanh * tanh
    return s

调用方法如下:

代码语言:javascript
复制
if __name__ == '__main__':
    x = 3
    s = tanh_derivative(x)
    print s
    x = np.array([2, 3, 4])
    s = tanh_derivative(x)
    print s

输出结果如下:

代码语言:javascript
复制
0.00986603716544
[0.07065082 0.00986604 0.00134095]

ReLU函数

ReLU是目前深度学习最常用的一个激活函数,数学公式如下:

其对应的坐标图为:

这里写图片描述
这里写图片描述

Python代码的实现:

代码语言:javascript
复制
import numpy as np

def relu(x):
    s = np.where(x < 0, 0, x)
    return s

调用方式如下:

代码语言:javascript
复制
if __name__ == '__main__':
    x = -1
    s = relu(x)
    print s
    x = np.array([2, -3, 1])
    s = relu(x)
    print s

输出结果如下:

代码语言:javascript
复制
0
[2 0 1]

图像转矢量

代码语言:javascript
复制
import numpy as np

def image2vector(image):
    v = image.reshape((image.shape[0] * image.shape[1] * image.shape[2], 1))
    return v

调用方法如下:

代码语言:javascript
复制
if __name__ == '__main__':
    image = np.array([[[0.67826139, 0.29380381],
                       [0.90714982, 0.52835647],
                       [0.4215251, 0.45017551]],

                      [[0.92814219, 0.96677647],
                       [0.85304703, 0.52351845],
                       [0.19981397, 0.27417313]],

                      [[0.60659855, 0.00533165],
                       [0.10820313, 0.49978937],
                       [0.34144279, 0.94630077]]])
    vector = image2vector(image)
    print "image shape is :", image.shape
    print "vector shape is :", vector.shape
    print "vector is :" + str(image2vector(image))

输出结果如下:

代码语言:javascript
复制
image shape is : (3, 3, 2)
vector shape is : (18, 1)
vector is :[[0.67826139]
 [0.29380381]
 [0.90714982]
 [0.52835647]
 [0.4215251 ]
 [0.45017551]
 [0.92814219]
 [0.96677647]
 [0.85304703]
 [0.52351845]
 [0.19981397]
 [0.27417313]
 [0.60659855]
 [0.00533165]
 [0.10820313]
 [0.49978937]
 [0.34144279]
 [0.94630077]]

规范化行

代码语言:javascript
复制
import numpy as np

def normalizeRows(x):
    x_norm = np.linalg.norm(x, axis=1, keepdims=True)
    print "x_norm = ", x_norm
    x = x / x_norm
    return x

调用该函数:

代码语言:javascript
复制
if __name__ == '__main__':
    x = np.array([
        [0, 3, 4],
        [1, 6, 4]])
    print "normalizeRows(x) = " + str(normalizeRows(x))

输出结果如下:

代码语言:javascript
复制
x_norm =  [[5.        ]
 [7.28010989]]
normalizeRows(x) = [[0.         0.6        0.8       ]
 [0.13736056 0.82416338 0.54944226]]

广播和softmax函数

Python代码的实现:

代码语言:javascript
复制
import numpy as np

def softmax(x):
    x_exp = np.exp(x)
    x_sum = np.sum(x_exp, axis=1, keepdims=True)
    print "x_sum = ", x_sum
    s = x_exp / x_sum
    return s

调用该函数:

代码语言:javascript
复制
if __name__ == '__main__':
    x = np.array([
        [9, 2, 5, 0, 0],
        [7, 5, 0, 0, 0]])
    print "softmax(x) = " + str(softmax(x))

输出结果如下:

代码语言:javascript
复制
x_sum =  [[8260.88614278]
 [1248.04631753]]
softmax(x) = [[9.80897665e-01 8.94462891e-04 1.79657674e-02 1.21052389e-04 1.21052389e-04]
 [8.78679856e-01 1.18916387e-01 8.01252314e-04 8.01252314e-04 8.01252314e-04]]

numpy矩阵的运算

numpy计算矩阵的有三种:np.dot(),np.outer(),np.multiply()。它们的运算如下:

代码语言:javascript
复制
# coding=utf-8
import numpy as np

if __name__ == '__main__':
    s1 = [[1,2,3],[4,5,6]]
    s2 = [[2,2],[3,3],[4,4]]
    # 跟线性代数计算矩阵一样,(1*15)*(15*1)=(1*1)
    dot = np.dot(s1, s2)
    print 'dot = ', dot
    # s1第一个元素跟s2的每一个元素相乘作为第一行,s1第二个元素跟s2每一个元素相乘作为第二个元素....
    outer = np.outer(s1, s2)
    print 'outer = ', outer
    x1 = [9, 2, 5, 0, 0, 7, 5, 0, 0, 0, 9, 2, 5, 0, 0]
    x2 = [9, 2, 2, 9, 0, 9, 2, 5, 0, 0, 9, 2, 5, 0, 0]
    # x1中的元素和x2中的元素一一对应相乘
    mul = np.multiply(x1, x2)
    print 'mul = ', mul

输出结果如下:

代码语言:javascript
复制
dot =  [[20 20]
 [47 47]]
outer =  [[ 2  2  3  3  4  4]
 [ 4  4  6  6  8  8]
 [ 6  6  9  9 12 12]
 [ 8  8 12 12 16 16]
 [10 10 15 15 20 20]
 [12 12 18 18 24 24]]
mul =  [81  4 10  0  0 63 10  0  0  0 81  4 25  0  0]

损失函数

损失用于评估模型的性能。损失越大,你的预测y^\hat{y}y^​就越不同于真实的值yyy。在深度学习中,您可以使用梯度下降等优化算法来训练模型并最大限度地降低成本。

L1损失函数

L1损失函数的公式如下:

Python代码实现:

代码语言:javascript
复制
import numpy as np

def L1(yhat, y):
    loss = np.sum(abs(y - yhat))
    return loss

调用该函数:

代码语言:javascript
复制
if __name__ == '__main__':
    yhat = np.array([.9, 0.2, 0.1, .4, .9])
    y = np.array([1, 0, 0, 1, 1])
    print("L1 = " + str(L1(yhat, y)))

输入结果如下:

代码语言:javascript
复制
L1 = 1.1

L2损失函数

L2损失函数的公式如下:

Python代码实现:

代码语言:javascript
复制
import numpy as np

def L2(yhat, y):
    loss = np.sum(np.multiply((y - yhat), (y - yhat)))
    return loss

调用该函数:

代码语言:javascript
复制
if __name__ == '__main__':
    yhat = np.array([.9, 0.2, 0.1, .4, .9])
    y = np.array([1, 0, 0, 1, 1])
    print("L2 = " + str(L2(yhat, y)))

输入结果如下:

代码语言:javascript
复制
L2 = 0.43

参考资料

  1. https://baike.baidu.com/item/tanh
  2. https://baike.baidu.com/item/Sigmoid%E5%87%BD%E6%95%B0
  3. http://deeplearning.ai/

该笔记是学习吴恩达老师的课程写的。初学者入门,如有理解有误的,欢迎批评指正!

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018/03/30 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 目录
    • 文章目录
    • 常用的激活函数
      • sigmoid函数
        • sigmoid函数的梯度
          • tanh函数
            • tanh函数的梯度
              • ReLU函数
              • 图像转矢量
              • 规范化行
              • 广播和softmax函数
              • numpy矩阵的运算
              • 损失函数
                • L1损失函数
                  • L2损失函数
                  • 参考资料
                  领券
                  问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档