前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >矩阵分析笔记(五)线性映射

矩阵分析笔记(五)线性映射

作者头像
mathor
发布2020-09-30 10:35:35
1.8K0
发布2020-09-30 10:35:35
举报
文章被收录于专栏:mathormathor
线性映射定义

V_1,V_2是数域\mathbb{F}上两个线性空间,映射\mathscr{A}:V_1→V_2,如果它保持加法和数乘法:

  1. \forall \alpha_1, \alpha_2\in V_1\mathscr{A}(\alpha_1+\alpha_2)=\mathscr{A}(\alpha_1)+\mathscr{A}(\alpha_2)
  2. \forall \alpha \in V_1, k\in \mathbb{F}\mathscr{A}(\alpha ·k)=\mathscr{A}(\alpha)·k

则称\mathscr{A}为从线性空间V_1V_2的线性映射,如果V_1V_2是同一个线性空间,则称\mathscr{A}为线性变换。从V_1V_2的所有线性映射构成的集合记为\mathscr{L}(V_1, V_2)

例如,映射

不是线性映射;映射

是线性映射

线性映射的简单性质
  1. \mathscr{A}(0)=0
  2. \mathscr{A}(\sum_{i=1}^sk_i\alpha_i)=\sum_{i=1}^sk_i\mathscr{A}(\alpha_i),其中\alpha_i \in V, k_i\in \mathbb{F}
  3. \alpha_1, \alpha_2,...,\alpha_s \in V_1 ,\alpha_1, \alpha_2,...,\alpha_s线性相关,则\mathscr{A}(\alpha_1),\mathscr{A}(\alpha_2),...,\mathscr{A}(\alpha_s)也线性相关

现证明性质(3)

事实上,由于\alpha_1,\alpha_2,...,\alpha_s线性相关,不失一般性,不妨设

\alpha_s = k_1\alpha_1 + k_2\alpha_2+···+k_{s-1}\alpha_{s-1}

于是

\mathscr{\alpha_s} = k_1\mathscr{\alpha_1}+k_2\mathscr{\alpha_2}+···+k_{s-1}\alpha_{\alpha_{s-1}}

因此,\mathscr{A}(\alpha_1), \mathscr{A}(\alpha_2),...,\mathscr{A}(\alpha_s)线性相关

特别要注意,若\alpha_1, \alpha_2, ..., \alpha_s \in V_1线性无关,则\mathscr{A}(\alpha_1), \mathscr{A}(\alpha_2), ..., \mathscr{A}(\alpha_s)不一定线性无关


线性映射的矩阵表示

给定\mathbb{F}上的线性空间V_1, V_2,及线性映射\mathscr{A}:V_1\to V_2。设\dim(V_1)=n, \dim(V_2)=m,并设\varepsilon_1,\varepsilon_2,...,\varepsilon_nV_1的一个基(称为入口基);\eta_1, \eta_2,...,\eta_mV_2的一个基(称为出口基)。记第j个入口基向量\varepsilon_j \in V_1\mathscr{A}下的像\mathscr{A}(\varepsilon_j)\in V_2在出口基\eta_1, \eta_2,...,\eta_n下的坐标为

a_j = \begin{bmatrix}a_{1j} \\ a_{2j}\\ \vdots \\ a_{mj}\end{bmatrix}\in \mathbb{F}^m

\mathscr{A}(\varepsilon_j)=\begin{bmatrix}\eta_1 & \eta_2 & \cdots & \eta_m\end{bmatrix}\begin{bmatrix}a_{1j}\\ a_{2j}\\ \vdots \\ a_{mj}\end{bmatrix},\ j=1,2,...,n

则由\mathbb{F}^m中的向量组a_1, a_2,...,a_n拼成的矩阵

A = \begin{bmatrix}a_1 & a_2 & \cdots & a_n\end{bmatrix} = [a_{ij}]_{m\times n}

称为\mathscr{A}在相应的入口基和出口基下的表示

定义记号

\mathscr{A}\begin{bmatrix}\varepsilon_1 & \varepsilon_2 & \cdots & \varepsilon_n\end{bmatrix}=\begin{bmatrix}\mathscr{A}(\varepsilon_1) & \mathscr{A}(\varepsilon_2) & \cdots & \mathscr{A}(\varepsilon_n)\end{bmatrix}

即线性映射作用在向量组拼成的矩阵上,定义为向量组中每个向量的像按原顺序所成的向量组(简称为向量组的像)拼成的矩阵。则有下面的公式

\mathscr{A}\begin{bmatrix}\varepsilon_1 & \varepsilon_2 & \cdots & \varepsilon_n\end{bmatrix}=\begin{bmatrix}\eta_1 & \eta_2 & \cdots & \eta_m\end{bmatrix}A

用文字表示,读作

[线性映射][入口基矩阵]=[出口基矩阵][表示矩阵]

事实上,只要确定了线性映射两个空间的基(例如(\varepsilon_1,\cdots,\varepsilon_n)(\beta_1,\cdots,\beta_m)),就有唯一确定的一个矩阵A与之对应,而且矩阵A的每一个列向量就是对应的原基向量映射后的坐标;反之,如果基确定,任何一个矩阵都唯一确定了一个线性映射

我个人理解,线性映射其实就是将一个m维的矩阵,转换为n维的矩阵,而在转换过程中,需要一个m\times n的矩阵A,这类似于PyTorch中的nn.Linear(m, n, bias=False)函数


用坐标计算线性映射

设线性映射\mathscr{A}:V_1\to V_2在入口基\varepsilon_1, \varepsilon_2,...,\varepsilon_n和出口基\eta_1, \eta_2,...,\eta_m下的矩阵表示为A,又设\alpha \in V_1在入口基下的坐标为x \in \mathbb{F}^n,则\mathscr{A}(\alpha)\in V_2在出口基下的坐标为Ax\in \mathbb{F}^m

证明:也就是要证\mathscr{A}(\alpha)=\begin{bmatrix}\eta_1 & \eta_2 & \cdots & \eta_m\end{bmatrix}(Ax)

因为

证毕

例题1

B=\begin{bmatrix}1 & 2 \\ 1 & 1 \\ 0 & 1\end{bmatrix}\mathscr{A}:\mathbb{R}^2\to \mathbb{R}^3由下式确定

\mathscr{A}(\alpha)=B\alpha, \ \ \ \alpha \in \mathbb{R}^2

试求\mathscr{A}在基\alpha_1=(1, 0)^T, \alpha_2=(0,1)^T与基\beta_1=(1,0,0)^T,\beta_2=(0,1,0)^T,\beta_3=(0,0,1)^T下的矩阵表示A

解:因为\mathscr{A}(\alpha_1)=(1, 1, 0)^T, \mathscr{A}(\alpha_2)=(2, 1, 1)^T

又由\begin{bmatrix}\mathscr{A}(\alpha_1) & \mathscr{A}(\alpha_2)\end{bmatrix}=\begin{bmatrix}\beta_1 & \beta_2 & \beta_3\end{bmatrix}A

A = \begin{bmatrix}1 & 2\\ 1 & 1\\ 0 & 1\end{bmatrix}
例题2

求线性映射\mathscr{A}:R[x]_{n+1}\to R[x]_n

\mathscr{A}(f(x))=\frac{d}{dx}f(x)

在基1, x, x^2, ..., x^n与基1, x, x^2,..., x^{n-1}下的矩阵表示D

解:因为\mathscr{A}(1)=0, \mathscr{A}(x)=1,...,\mathscr{A}(x^n)=nx^{n-1}

又由\begin{bmatrix}\mathscr{A}(1) & \mathscr{A}(x) & \cdots & \mathscr{x^n}\end{bmatrix}=\begin{bmatrix}1 & x & \cdots & x^{n-1}\end{bmatrix}A

A = \begin{bmatrix}0 & 1 & 0 & 0 & \cdots & 0 \\ 0 & 0 & 2 & 0 & \cdots & 0 \\ 0 & 0 & 0 & 3 & \cdots & 0 \\ \vdots & \vdots & \vdots & \vdots & \cdots & \vdots \\ 0 & 0 & 0 & 0 & \cdots & n\end{bmatrix}_{n\times (n+1)}
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 线性映射定义
  • 线性映射的简单性质
  • 线性映射的矩阵表示
  • 用坐标计算线性映射
  • 例题1
  • 例题2
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档