深度学习通常又需要哪些数学基础?深度学习里的数学到底难在哪里?通常初学者都会有这些问题,在网络推荐及书本的推荐里,经常看到会列出一系列数学科目,比如微积分、线性代数、概率论、复变函数、数值计算、优化理论、信息论等等。这些数学知识有相关性,但实际上按照这样的知识范围来学习,学习成本会很久,而且会很枯燥。本章我们通过选举一些数学基础里容易混肴的一些概念作以介绍,帮助大家更好的理清这些易混肴概念之间的关系。
标量(scalar)
一个标量表示一个单独的数,它不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。我们用斜体表示标量。标量通常被赋予小写的变量名称。
向量(vector)
一个向量表示一组有序排列的数。通过次序中的索引,我们可以确定每个单独的数。通常我们赋予向量粗体的小写变量名称,比如xx。向量中的元素可以通过带脚标的斜体表示。向量
是第一个元素是
,第二个元素是
,以此类推。我们也会注明存储在向量中的元素的类型(实数、虚数等)。
矩阵(matrix)
矩阵是具有相同特征和纬度的对象的集合,表现为一张二维数据表。其意义是一个对象表示为矩阵的一行,一个特征表示为矩阵的一列,每个特征都有数值型的取值。通常会赋予矩阵粗体的大写变量名称,比如
。
张量(tensor)
在某些情况下,我们会讨论坐标超过两维的数组。一般地,一个数组中的元素分布在若干维坐标的规则网格中,我们将其称之为张量。使用
来表示“A”。张量
中坐标为
的元素记作
。
四者之间关系:
标量是0阶张量,向量是1阶张量。举例: 标量就是知道棍子的长度,但是你不会知道棍子指向哪儿。 向量就是不但知道棍子的长度,还知道棍子指向前面还是后面。 张量就是不但知道棍子的长度,也知道棍子指向前面还是后面,还能知道这棍子又向上/下和左/右偏转了多少。
阶张量就是所谓的
维“表格”。张量的严格定义是利用线性映射来描述。
矩阵形式来表达。
,
的矩阵。
若使用爱因斯坦求和约定(Einstein summation convention),矩阵
,
相乘得到矩阵
可以用下式表示:
其中,
,
,
分别表示矩阵
的元素,
出现两次,是一个哑变量(Dummy Variables),表示对该参数进行遍历求和。而矩阵和向量相乘可以看成是矩阵相乘的一个特殊情况,例如:矩阵
是一个
的矩阵。
向量的范数(norm)
定义一个向量为:
。任意一组向量设为
。其不同范数求解如下:
向量1的范数:向量的各个元素的绝对值之和,上述向量
的1范数结果就是:29。
向量2的范数:向量的每个元素的平方和再开平方根,上述
的2范数结果就是:15。
向量的负无穷范数:向量的所有元素的绝对值中最小的:上述向量
的负无穷范数结果就是:5。
向量的正无穷范数:向量的所有元素的绝对值中最大的:上述向量
的正无穷范数结果就是:10。
向量的p范数:
矩阵的范数
定义一个矩阵:
。任意矩阵定义为:
,其元素为
。
矩阵的范数定义为:
当向量取不同范数时,相应得到了不同的矩阵范数。
矩阵的1范数(列范数):矩阵的每一列上的元素绝对值先求和,再从中取个最大的,(列和最大),上述矩阵
的1范数先得到
,再取最大的最终结果就是:9。
矩阵的2范数:矩阵
的最大特征值开平方根,上述矩阵
的2范数先得到最终结果是:10.0623。
其中,
为
的特征值绝对值的最大值。
矩阵的无穷范数(行范数):矩阵的每一行上的元素绝对值先求和,再从中取个最大的,(行和最大),上述矩阵
的行范数先得到
,再取最大的最终结果是:16。
矩阵的核范数:矩阵的奇异值(将矩阵svd分解)之和,这个范数可以用来低秩表示(因为最小化核范数,相当于最小化矩阵的秩——低秩),上述矩阵
的最终结果就是:10.9287。
矩阵的L0范数:矩阵的非0元素的个数,通常用它来表示稀疏,L0范数越小0越苏越多,也就越稀疏,上述矩阵
的最终结果就是:6。
矩阵的L1范数:矩阵中的每个元素的绝对值之和,它是L0范数的最优凸近似,因此它也可以表示稀疏,上述矩阵
的最终结果就是:22。
矩阵的F范数:矩阵的各个元素平方之和再开平方根,它通常也叫做矩阵的L2范数,它的优点在于它是一个凸函数,可以求导求解,易于计算,上述矩阵
的最终结果就是:10.0995。
矩阵的L21范数:矩阵先以每一列为单位,求每一列的F范数(也可认为是向量的2范数),然后再将得到的结果求L1范数(也可认为是向量的1范数),很容易看出它是介于L1和L2之间的一种范数,上述矩阵
的最终结果就是:17.1559。
矩阵的p范数:
使
等于该矩阵;
;
(即:规范形为
);
导数定义
导数(derivative)代表了在自变量变化趋于无穷小的时候,函数值的变化与自变量的变化的比值。几何意义是这个点的切线。物理意义是该时刻的(瞬时)变化率。
注意:在一元函数中,只有一个自变量变动,也就是说只存在一个方向的变化率,这也就是为什么一元函数没有偏导数的原因。在物理学中有平均速度和瞬时速度之说。平均速度有:
其中,
表示平均速度,
表示路程,
表示时间。这个公式可以改写为:
其中,
表示两点之间的距离,而
表示走过这段距离需要花费的时间。当
趋向于0(
)时,也就是时间变得很短时,平均速度也就变成了在
时刻的瞬时速度,表示成如下形式:
实际上,上式表示的是路程
关于时间
的函数在
处的导数。一般的,这样定义导数:如果平均变化率的极限存在,即有:
则称此极限为函数
在点
处的导数。记作
或
或
或
。
通俗地说,导数就是曲线在某一点切线的斜率。
偏导数
既然谈到偏导数(partial derivative),那就至少涉及到两个自变量。以两个自变量为例,
,从导数到偏导数,也就是曲线来到了曲面。曲线上的一点,其切线只有一条。但在曲面上的一点,切线有无数条。而偏导数就是指多元函数沿着坐标轴的变化率。
注意:直观地说,偏导数也就是函数在某一点上沿坐标轴正方向的变化率。
设函数
在点
处关于自变量
的偏导数,记作
或
或
或
。
偏导数在求解时可以将另一个变量看作常数,利用普通的求导方式求解,比如
关于
的偏导数就为
,这个时候
就相当于
的系数。
某点
处的偏导数的几何意义为曲面
与面
或面
交线在
或
处切线的斜率。
导数和偏导数没有本质区别,如果极限存在,都是当自变量的变化量趋于0时,函数值的变化量与自变量变化量比值的极限。
对应一个
,导数只有一个。
对应一个
和一个
,有两个导数:一个是
对
的导数,一个是
对
的导数,称之为偏导。
特征值分解可以得到特征值(eigenvalues)与特征向量(eigenvectors);
特征值表示的是这个特征到底有多重要,将一定可以表示成下面的形式:
为特征向量
对应的特征值。特征值分解是将一个矩阵分解为如下形式:
其中,
是这个矩阵
的特征向量组成的矩阵,
是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。也就是说矩阵
的信息可以由其特征值和特征向量表示。
那么奇异值和特征值是怎么对应起来的呢?我们将一个矩阵
的转置乘以
,并对
求特征值,则有下面的形式:
这里
就是上面的右奇异向量,另外还有:
这里的
就是奇异值,
就是上面所说的左奇异值。奇异值
跟特征值剋四,在矩阵
中也是从大到小排列,而且
的减少特别快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前
(
远小于
)个奇异值来近似描述矩阵,即部分奇异值分解:
右边的三个矩阵相乘的结果将会是一个接近于
的矩阵,在这儿,
越接近于
,则相乘的结果越接近于
。
事件的概率是衡量该事件发生的可能性的量度。虽然在一次随机试验中某个事件的发生是带有偶然性的,但那些可在相同条件下大量重复的随机试验却往往呈现出明显的数量规律。
机器学习除了处理不确定量,也需处理随机量。不确定性和随机性可能来自多个方面,使用概率论来量化不确定性。
概率论在机器学习中扮演着一个核心角色,因为i机器学习算法的设计通常依赖于对数据的概率假设。
例如在机器学习(Andrew Ng)的课中,会有一个朴素贝叶斯假设就是条件独立的一个例子。该学习算法对内容做出假设,用来分辨电子邮件是否为垃圾邮件。假设无论邮件是否为垃圾邮件,单词x出现在邮件中的概率条件独立于单词y。很明显这个假设不是不失一般性的,因为某些单词几乎总是同时出现。然而,最终结果是,这个简单的假设对结果的影响并不大,且无论如何都可以让我们快速判别垃圾邮件。
随机变量(random variable)
表示随机现象(在一定条件下,并不总是出现相同结果的现象称为随机现象)中各种结果的实值函数(一切可能的样本点)。例如某一时间内公共汽车站等车乘客人数,电话交换台在一定时间内收到的呼叫次数等,都是随机变量的实例。
随机变量与模糊变量的不确定性的本质差别在于,后者的测定结果仍具有不确定性,即模糊性。
变量与随机变量的区别:
当变量的取值的概率不是1时,变量就成了随机变量;
当随机变量取值的概率为1时,随机变量就变成了变量。
比如: 当变量
值为100的概率为1的话,那么
=100 就是确定了的,不会再有变化,除非有进一步运算. 当变量
的值为100的概率不为1,比如为50的概率是0.5,为100的概率是0.5,那么这个变量就是会随不同条件而变化的,是随机变量,取到50或者100的概率都是0.5,即50%。
一个随机变量仅仅表示一个可能取得的状态,还必须给定与之相伴的概率分布来制定每个状态的可能性。用来描述随机变量或一簇随机变量的每一个可能是状态的可能性大小的方法,就是概率分布(probability distribution)。
随机变量可以分为离散型随机变量和连续性随机变量。
相应的描述其概率分布的函数是:
概率质量函数(Probability Mass Function,PMF):描述离散型随机变量的概率分布,通常用大写字母
表示。
概率密度函数(Probability Density Function,PDF):描述连续型随机变量的概率分布,通常用小写字母
表示。
PMF将随机变量能够取得的每个状态映射到随机变量取得该状态的概率。
表示
的概率;
;
。
PMF可以同时作用于多个随机变量,即联合概率分布(joint probability distribution)
表示
和
同时发生的概率,也可以简写成
。
如果一个函数
是随机变量
的PMF,那么它必须满足如下三个条件:
的定义域必须是x的所有可能状态的集合;
;
.我们把这一条性质称之为 归一化的(normalized)。
如果一个函数
是随机变量x的PDF,那么它必须满足如下三个条件:
的定义域必须是x的所有可能状态的集合;
注意,我们并不要求
,因为此处
不是表示的对应此状态具体的概率,而是概率的一个相对大小(密度)。具体的概率,需要积分去求。
,积分下来,总和还是1,概率之和还是1。
注:PDF
并没有直接对特定的状态给出概率,给出的是密度,相对的,它给出了落在面积为
的无线小的区域内的概率为
。由此,我们无法求得具体某个状态的概率,我们可以球的的是某个状态
落在某个区间
内的概率为
。
条件概率公式如下:
说明:在同一个样本空间
中的事件或者子集
与
,如果随机从
中选出的一个元素属于
,那么下一个随机选择的元素属于
的概率就定义为在
的前提下
的条件概率。条件概率文氏图示意如图1.1所示。
图1.1 条件概率文氏图示意
根据文氏图,可以很清楚地看到在事件B发生的情况下,事件A发生的概率就是
除以
。 举例:一对夫妻有两个小孩,已知其中一个是女孩,则另一个是女孩子的概率是多少?(面试、笔试都碰到过) 穷举法:已知其中一个是女孩,那么样本空间为男女,女女,女男,则另外一个仍然是女生的概率就是1/3。 条件概率法:P(女|女)=P(女女)/P(女),夫妻有两个小孩,那么它的样本空间为女女,男女,女男,男男,则P(女女)为1/4,P(女)= 1-P(男男)=3/4,所以最后1/3。 这里大家可能会误解,男女和女男是同一种情况,但实际上类似姐弟和兄妹是不同情况。
区别: 联合概率:联合概率指类似于
这样,包含多个条件,且所有条件同时成立的概率。联合概率是指在多元的概率分布中多个随机变量分别满足各自条件的概率。 边缘概率:边缘概率是某个事件发生的概率,而与其它事件无关。边缘概率指类似于
,
这样,仅与单个随机变量有关的概率。
联系: 联合分布可求边缘分布,但若只知道边缘分布,无法求得联合分布。
由条件概率的定义,可直接得出下面的乘法公式: 乘法公式 设
是两个事件,并且
, 则有
,推广
。
一般地,用归纳法可证:若
,则有:
任何多维随机变量联合概率分布,都可以分解成只有一个变量的条件概率相乘形式。
独立性
两个随机变量
和
,概率分布表示成两个因子乘积形式,一个因子只包含
,另一个因子只包含
,两个随机变量相互独立(independent)。 条件有时为不独立的事件之间带来独立,有时也会把本来独立的事件,因为此条件的存在,而失去独立性。 举例:
, 事件
和事件
独立。此时给定
,
事件独立时,联合概率等于概率的乘积。这是一个非常好的数学性质,然而不幸的是,无条件的独立是十分稀少的,因为大部分情况下,事件之间都是互相影响的。
条件独立性
给定
的情况下,
和
条件独立,当且仅当
,
和
的关系依赖于
,而不是直接产生。
举例定义如下事件:
:明天下雨;
:今天的地面是湿的;
:今天是否下雨;
的事件成立,对
和
均有影响。然而,在
事件成立的前提下,今天的地面情况对明天是否下雨没有影响。
Bernoulli分布(伯努利分布,0-1分布)是单个二值随机变量分布, 单参数
∈[0,1]控制,
给出随机变量等于1的概率. 主要性质有:
,
,
概率质量函数:
。
其期望和方差为:
,
。
适用范围: 伯努利分布适合对离散型随机变量建模。
Multinoulli分布也叫范畴分布, 是单个k值随机分布,经常用来表示对象分类的分布. 其中k是有限值.Multinoulli分布由向量参数化,每个分量表示第个状态的概率, 且.这里表示元素全为1的列向量的转置,其实就是对于向量p中除了k的概率之和。可以重写为 。
补充二项分布、多项分布:
二项分布,通俗点硬币抛多次。二项分布(Binomial distribution)是n重伯努利试验成功次数的离散概率分布。
多项式分布(Multinomial Distribution)是二项式分布的推广。二项式做n次伯努利实验,规定了每次试验的结果只有两个,如果现在还是做n次试验,只不过每次试验的结果可以有多m个,且m个结果发生的概率互斥且和为1,则发生其中一个结果X次的概率就是多项式分布。
高斯也叫正态分布(Normal Distribution), 概率度函数如下:
其中,
和
分别是均值和标准差, 中心峰值x坐标由
给出, 峰的宽度受
控制, 最大点在
处取得, 拐点为
。
正态分布中,±1
、±2
、±3
下的概率分别是68.3%、95.5%、99.73%,这3个数最好记住。
此外, 令
,高斯分布即简化为标准正态分布:
,对概率密度函数高效求值:
其中,
通过参数
来控制分布精度。
问:何时采用正态分布?答:缺乏实数上分布的先验知识,不知选择何种形式时,默认选择正态分布总是不会错的,理由如下:
正态分布的推广:正态分布可以推广到
空间,此时称为多位正态分布,其参数是一个正定对称矩阵
:
对多位正态分布概率密度高效求值:
此处,
是一个精度矩阵。
深度学习中,指数分布用来描述在
点处取得边界点的分布,指数分布定义如下:
指数分布用指示函数
来使
取负值时的概率为零。
一个联系紧密的概率分布是 Laplace 分布(Laplace distribution),它允许我们在任意一点
处设置概率质量的峰值:
Dirac分布可保证概率分布中所有质量都集中在一个点上. Diract分布的狄拉克
函数(也称为单位脉冲函数)定义如下:
Dirac分布经常作为经验分布(empirical distribution)的一个组成部分出现:
其中,m个点
是给定的数据集,经验分布将概率分布密度
赋予给了这些点。
当我们在训练集上训练模型时,可以认为从这个训练集上得到的经验分布指明了采样来源。
适用范围:狄拉克
函数适合对连续性随机变量的经验分布。
在概率论和统计学中,数学期望(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和。它反映随机变量平均取值的大小。
线性运算:
推广形式:
函数期望:设
为
的函数,则
的期望为:
注意:
);
和
相互独立,则
。
概率论中方差用来度量随机变量和其数学期望(即均值)之间的偏离程度。方差是一种特殊的期望。定义为:
方差性质: (1)
(2)常数的方差为0 (3)方差不满足线性性质 (4)如果
和
相互独立,
协方差是衡量两个变量线性相关性强度及变量尺度。两个随机变量的协方差定义为:
方差是一种特殊的协方差,当
时,
。
协方差性质: (1)独立变量的协方差为0 (2)协方差计算公式:
(3)特殊情况:
相关系数是研究变量之间线性相关程度的量。两个随机变量的相关系数定义为:
相关系数的性质: (1)有界性。相关系数的取值范围是[-1,1],可以看成无量纲的协方差。 (2)值越接近1,说明两个变量正相关性(线性)越强。越接近-1,说明负相关性越强。当为0时,表示两个变量没有相关性。
[1]Ian,Goodfellow,Yoshua,Bengio,Aaron...深度学习[M],人民邮电出版,2017
[2]周志华.机器学习[M].清华大学出版社,2016.
[3]同济大学数学系.高等数学(第七版)[M],高等教育出版社,2014.
[4]盛骤,试式千,潘承毅等编. 概率论与数理统计(第4版)[M],高等教育出版社,2008