首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器学习数学补脑汁(三)-线代的理解

Matrix as Transformer 。矩阵就是一个转换器。在线性代数中,矩阵描述了线性变换。

如下图所示:如果机器学习模型是一个黑盒,我们认为黑盒就像一个会玩魔方的手,不停的扭曲变化输入的特征矩阵,最后把输入矩阵变换、降维成一个答案。通过不断的试错,它固定下来一套变化流程,这个变化流程用一个矩阵或者一组矩阵描述。当新的样本矩阵输入,乘以这个描述变换的矩阵就得到了答案。这个描述变换的矩阵就是模型学习到的W。

所以,我们要了解线性代数,了解投影、变换、特征值分解、奇异值分解这些内容就是去理解特征空间的各种变化、降维的过程?

而微积分里面的导数、偏导数就是为了找到梯度下降的方向,从而避免穷举所有变化,让变化有一个正确的方向?

求大神指正!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180802G1C72I00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券