0. 前言
线代是很早之前大一上的东西了,当时记得学的还可以,不过确实印象中里面各种零零散散的公式定理有一堆,感觉学的不怎么成体系,后来也一直没怎么真正用起来,等到现在也基本算是把学的全部还给老师了……
不过问题在于,虽然我现在已经不搞物理很多年了,但是架不住我转行做算法了啊,算法的核心不就是各种矩阵计算吗?虽然由于神经网络当中参数的复杂性,我自己也不是研究员,更多时候主要考察的还是数据特征以及对结果进行定性上的分析,而不会从模型结构中涉及的矩阵变换来对结果进行调优,但是线代终究感觉还是有必要去捞一下了……
所以,这里我打算还是掏出当年的教科书把线代给复习一下吧……
不过说到这里,我真的是想好好吐槽一下了,我掏出教科书之后才发现,当年上线代居然用的教材是线性代数与解析几何,然后教材前两章全都在讲解几,里面涉及到的线代相关的东西貌似也全部是服务于坐标系变换的,虽说我是物理系的吧,但是这是不是也太忽悠了啊,难怪当年印象中我好像特意去找了本数学系的线代教材自学来着……
简直了……
算了,先把这本书简单过一下吧,回头下次再找本数学系的教材好好补补吧……
1. 向量与复数
1. 向量
向量的含义顾名思义,就是即有大小又有方向的量,其满足如下性质:
- 交换律:
\vec{a} + \vec{b} = \vec{b} + \vec{a}- 结合律:
(\vec{a} + \vec{b}) + \vec{c} = \vec{a} + (\vec{b} + \vec{c})
\vec{a} + \vec{0} = \vec{a}
\vec{a} + (-\vec{a}) = \vec{0}
1 \vec{a} = \vec{a}
\lambda (\mu \vec{a}) = (\lambda\mu)\vec{a}
(\lambda + \mu)\vec{a} = \lambda\vec{a} + \mu\vec{a}
\lambda(\vec{a} + \vec{b}) = \lambda\vec{a} + \lambda\vec{b}关于向量还有一些比较简单的性质,比如说:
命题1.1.1
另外,我们可以基于此定义线性组合和线性相关:
因此,显然有:
- 两个向量线性相关当且仅当其共线;
- 三个向量线性相关当且仅当其共面。
2. 向量运算
1. 数量积(内积)
首先,我们给出其定义如下:
定义1.3.1
- 两个向量\vec{a}, \vec{b} 的数量积(内积)是一个标量,它等于两个向量的模长与两个向量夹角的余弦的乘积,即为\vec{a} \cdot \vec{b} = |\vec{a}| |\vec{b}| cos \theta 。
物理含义上来说,内积就是两个向量在各自方向上的投影之积。
显然,我们有如下性质:
\vec{a} \cdot \vec{b} = \vec{b} \cdot \vec{a}
(\vec{a} + \vec{b}) \cdot \vec{c} = \vec{a} \cdot \vec{c} + \vec{b} \cdot \vec{c}
(\lambda \vec{a}) \cdot \vec{b} = \lambda (\vec{a} \cdot \vec{b}) = \vec{a} \cdot (\lambda \vec{b})
\vec{a}^2 = \vec{a} \cdot \vec{a} \geq 0- 三角不等式:
|\vec{a}| + |\vec{b}| \geq |\vec{a} + \vec{b}|2. 向量积
同样,给出向量积的定义如下:
显然,我们同样有:
\vec{a} \times \vec{b} = -\vec{b} \times \vec{a}
(\lambda \vec{a}) \times \vec{b} = \lambda (\vec{a} \times \vec{b}) = \vec{a} \times (\lambda \vec{b})
(\vec{a} + \vec{b}) \times \vec{c} = \vec{a} \times \vec{c} + \vec{b} \times \vec{c}更进一步的,我们其实还有性质如下:
(\vec{a} + \vec{b}) \times \vec{c} = (\vec{a}\cdot\vec{c})\vec{b} - (\vec{b}\cdot\vec{c})\vec{a}
(\vec{a} + \vec{b}) \cdot (\vec{c} + \vec{d}) = (\vec{a}\cdot\vec{c})(\vec{b}\cdot\vec{d}) - (\vec{a}\cdot\vec{d})(\vec{b}\cdot\vec{c})3. 混合积
混合积的定义为
(\vec{a} \times \vec{b}) \cdot \vec{c},其物理含义上恰好就是这三个向量组成的平行六面体的体积。
我们可以将其结果写成行列式的形式:
(\vec{a} \times \vec{b}) \cdot \vec{c} = \begin{vmatrix} a_1 & a_2 & a_3 \\ b_1 & b_2 & b_3 \\ c_1 & c_2 & c_3 \end{vmatrix}显然有:
2. 空间解析几何
1. 直线和平面
1. 直线的表达
\frac{x-a_1}{u_1} = \frac{y-a_2}{u_2} = \frac{z-a_3}{u_3}直线的方向向量为:
\vec{u} = (u_1, u_2, u_3)2. 平面的表达
Ax+By+Cz+D=0平面的法向量表达为:
\vec{n} = (A,B,C)3. 点到直线的距离
d = \frac{|\vec{u} \times \vec{AP}|}{|\vec{u}|}4. 点到平面的距离
d = \frac{|Ax+By+Cz+D|}{\sqrt{A^2+B^2+C^2}}5. 两直线间的距离
d = \frac{|\vec{u} \times \vec{v} \cdot \vec{AB}|}{|\vec{u} \times \vec{v}|}6. 两平面间的夹角
\phi = arccos \frac{|\vec{n_1} \cdot \vec{n_2}|}{|\vec{n_1}||\vec{n_2}|}7. 直线与平面的夹角
\varphi = arcsin \frac{|\vec{u} \cdot \vec{n}|}{|\vec{u}||\vec{n}|}2. 曲线和曲面
1. 曲线表达式
Q(t) = (x(t), y(t), z(t))2. 曲面表达式
- 柱面
P(s, t) = s \vec{u} + Q(t)- 锥面
P(s, t) = (1-s)A + sQ(t)- 常见二次曲面
- 椭球面
\frac{x^2}{a^2} + \frac{y^2}{b^2} + \frac{z^2}{c^2} = 1- 单叶双曲面
\frac{x^2}{a^2} + \frac{y^2}{b^2} - \frac{z^2}{c^2} = 1- 双叶双曲面
\frac{x^2}{a^2} + \frac{y^2}{b^2} - \frac{z^2}{c^2} = -1- 二次锥面
\frac{x^2}{a^2} + \frac{y^2}{b^2} - \frac{z^2}{c^2} = 0- 椭圆抛物面
z = \frac{x^2}{a^2} + \frac{y^2}{b^2}- 马鞍面(双曲抛物面)
z = \frac{x^2}{a^2} - \frac{y^2}{b^2}- 椭圆柱面
\frac{x^2}{a^2} + \frac{y^2}{b^2} = 1- 双曲柱面
\frac{x^2}{a^2} - \frac{y^2}{b^2} = 1- 抛物柱面
y^2 = 2px