首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器学习数学之线性代数

机器学习数学之线性代数

1 关于范德蒙德行列式应用

范德蒙德行列式可用于插值法(指对N个数据,得出一个N-1阶的式子。),当阶数小于N-1时,为拟合方法,当 阶数为1时,则为回归。

2 对称阵的重要性

协方差矩阵、二次型矩阵等都是对称阵,m×n的A矩阵也可以通过

来得到对称阵,此时A的特征向量等于C的特征向量,A的特征值矩阵为C的 特征值矩阵的平方根。

3 关于特征值的理解

对于特征值和特征向量可以理解为:特征值是拉伸的大小,特征向量是拉伸的方向。

在i, j组成的基向量坐标系中对于A矩阵可以在不改变v的方向前提下使v在长度上改变,即Av =λv,从而形成了特征值、特征向量的定义式。对于特征值分解,对于矩阵A可以对角化的话,可以通过相似矩阵进行下面这样的特征值分解其中为对角阵且是A的特征值矩阵,P的列向量是单位化的特征向量。

4 关于协方差的介绍协方差矩阵对角线上就是各个特征的方差,求其特征值矩阵(值从大到小排列),那么取前K个特征值对应的特征就是方差较大的特征。对于协方差的重要性,我们知道对于对称方阵可以直接求解其特征值矩阵,但是对于非对阵矩阵呢?比如当R为m×n非对称矩阵时,R已经为初始特征矩阵减掉均值归一化,R的奇异值矩阵为A,令则C为R的协方差矩阵, C的特征值矩阵为D,D矩阵的各个元素开根号为R的奇异值,各个奇异值形成奇异值矩阵A(在对称矩阵中叫特征值),(关于这个定理大家可以尝试通过特征值定义式证明)。

5 SVD奇异值分解奇异值分解是一种重要的矩阵分解方法,可以看做对称方阵在任意矩阵上的推广。

基于上面的概念介绍后,将奇异值矩阵从大到小排序,选择原来的矩阵中前K个奇异值, 实现用K个奇异值解释原来矩阵的所有特征,再左右分别乘上原特征向量,就得到新的矩 阵,该新矩阵可以解释大部分原矩阵的信息。关于SVD的应用:图片压缩,具体参见《机器学习实战》。

PS: 关于排版很抱歉,微信公众号不支持公式,只能截图了,吐血ing......

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171217G0LA6B00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券