首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

线性代数基础及矩阵求导

“矩阵的本质就是线性方程式,两者是一一对应关系。”

线性代数是机器学习中重要的数学基础。本文主要总结基本概念、基本运算和矩阵求导,我想这些不会让人很有压力,且足够理解很多机器学习的计算过程。

基本概念

张量(tensor)(张飞 tensorfly 的弟弟 张流 tensorflow)

特殊情况就是 二维张量是矩阵(matrix),一维张量是向量(vector),零维张量就是标量(scalar)。这样理解会不会更简单点?

矩阵的转置(tanspose):将矩阵沿着对角线翻转一下。

(

A⊤

)i,j

=

Aj,i

A=

⎡⎣⎢

x11

x21

x31

x12

x22

x32

⎤⎦⎥

A⊤

=[

x11

x21

x21

x22

x31

x32

]

基本运算

加法:

乘一个常数:

矩阵点乘:

乘积-哈达马积( hadamard product):

直积:

通常用到的向量与矩阵,矩阵与矩阵的乘积是点乘,点乘就是解方程式。这样理解,能方便区分和记忆,看下图:

矩阵求导

也叫作矩阵微分。

包括分子、分母布局概念及标量、向量与矩阵的求导等内容。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180302G1LX6000?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券