25.08.23
将军说了,学习笔记一定要有头图!

线性空间 Vector Space
要求 \(\mathbf{F}\) 上的 \(\mathbf{V}\),有以下运算:
- \(\mathbf{V}+\mathbf{V}\to\mathbf{V}\);
- \(\mathbf{F}\times\mathbf{V}\to\mathbf{V}\).
运算需满足性质:
- \((\mathbf{V},+)\) 满足交换律,是个阿贝尔群;
- \((\alpha\beta)\times\vec{v}=\alpha(\beta\times\vec{v})\),即结合律。
- \(\alpha\times(\vec{v_1}+\vec{v_2})=\alpha\times\vec{v_1}+\alpha\times\vec{v_2}\wedge(\alpha+\beta)\times\vec{v}=\alpha\times\vec{v}+\beta\times\vec{v}\),即分配律。
常见的线性空间包括:
- \(\mathbf{F}=\mathbb{R},\mathbf{V}=\mathbb{R}^n\coloneqq\{(x_1,\cdots,x_n)\mid x_i\in\mathbb{R}\}\),常见的空间向量。
- \(\mathbf{F}=\{0,1\},\mathbf{V}\coloneqq\{0,1,\cdots,2^n-1\}\),OI 中常见的向量。
线性子空间 Linear Subspace
对于 \(\mathbf{W}\sube\mathbf{V}\),称其为线性子空间当且仅当其非空且封闭。
封闭就是:\(\forall \alpha\beta\in\mathbf{F},\vec{v_1},\vec{v_2}\in\mathbf{W},\alpha\times\vec{v_1}+\beta\times\vec{v_2}\in\mathbf{W}\)。
特别的,\(\{\vec{0}\}\) 和 \(\mathbf{V}\) 称为平凡的线性子空间。
张成 Span
考虑给定一个向量集 \(\mathbf{S}\),其不一定是线性子空间。
那么我们将包含其的极小线性子空间称作其的张成,记做 \(\lang\mathbf{S}\rang\)。
关于极小:集合并非全序集,我们一般比较集合的大小,而对于大小相等的集合认为它们之间无序,则不能称“最小”。
易知 \(\lang\mathbf{S}\rang=\{\sum\limits_{s\in\mathbf{S}}a_s\vec{s}\mid a_s\in\mathbf{F}\}\)。
生成集 Spanning Set & 线性无关 Linearly Independent & 基底 Basis
考虑 \(\mathbf{V}=\lang\mathbf{S}\rang\),显然这样的集合有很多,我们称之为 \(\mathbf{V}\) 的生成集。
而我们会重点关注其中极小的集合 \(\mathbf{S}\),并称之为 \(\mathbf{V}\) 的基底。
基底 \(\mathbf{S}\) 有如下性质:\(\sum\limits_{s\in\mathbf{S}}a_s\vec{s}=0\Longleftrightarrow \forall s\in\mathbf{S},a_s=0\),即线性无关。
且可以证明基底为极大的线性无关集,这三点(极小生成集,基底,极大线性无关集)是可以互推的。
内积 Inner Product & 正交 Orthogonal
其实是中学点乘的普遍形式。\(\mathbf{F}^n\) 上的内积即 \((\vec{x}|\vec{y})=\sum\limits_{i=1}^n\vec{x}_i\vec{y}_i\)。
注意这个内积不一定能满足一个叫“正定性”的东东,正定性的意思大概就是 \((\vec{x}|\vec{x})\ge 0\),取等当且仅当 \(\vec{x}=\vec{0}\)。
点乘帮我们界定了向量的垂直,同理,内积可以判断向量的正交,即 \((\vec{x}|\vec{y})=0\)。
正交补 Orthogonal Complement
定义 \(\mathbf{S}^\bot\) 为 \(\mathbf{S}\) 的正交补为:\(\mathbf{S}^\bot\coloneqq\{\vec{x}\in\mathbf{F}^n\mid\forall\vec{y}\in\mathbf{S},(\vec{x}|\vec{y})=0\}\)。
因为名字里带个补,很容易想到 \((\mathbf{S}^\bot)^\bot\) 会和 \(\mathbf{S}\) 有一定关系。
考虑 \(\lang\mathbf{S}\rang\),其同样会与 \(\mathbf{S}^\bot\) 里的正交(内积有结合律),不过证不出来 \((\mathbf{S}^\bot)^\bot=\lang\mathbf{S}\rang\),反而能够举出一些反例。
因此第一条性质是:\(\lang\mathbf{S}\rang\sube(\mathbf{S}^\bot)^\bot\)。
在举反例的过程中很容易发现第二条性质:\((\mathbf{S}^\bot)^\bot\) 是个线性子空间。
一些进一步的观察可以导出第三条性质:\((\mathbf{S}^\bot)^\bot=\lang\mathbf{S}\rang\Longleftrightarrow\dim\lang\mathbf{S}\rang+\dim\mathbf{S}^\bot=n\)。
那么如何求出正交补呢?不想写了,大概就是跑个类似转置的过程。
线性映射 Linear Map
线性映射干的事情就是在基于 \(\mathbf{F}\) 上的线性空间 \(\mathbf{V},\mathbf{W}\) 间建立关系,即:\(f\colon\mathbf{V}\to\mathbf{W}\)。
看着比较抽象,但其实线性映射和矩阵乘法是一个东西:输入向量 \(\vec{x}\in\mathbf{V}\),输出向量 \(\vec{y}\in\mathbf{W}\),\(f\) 即一个矩阵。
讲题人一直在表示“矩阵是线性映射”比“线性映射是矩阵”这个说法好,他说得对。
不过搞清楚这俩是一个东西可以让我们有些很有趣的发现:线性映射也能构成线性空间!
记 \(\hom(\mathbf{V},\mathbf{W})\) 为 \(\mathbf{V}\to\mathbf{W}\) 的所有线性映射。
假设 \(\mathbf{V}=\mathbf{F}^n,\mathbf{W}=\mathbf{F}^m\),那么对于 \(f\in\hom(\mathbf{V},\mathbf{W})\),可以被看作基于 \(\mathbf{F}^m\) 的 \(n\) 维向量。
同样可以定义它的维度和基底一类的,不再赘述。
核空间 Kernel & 像空间 Image & 秩 Rank
- \(\ker f\coloneqq\{\vec{v}\in\mathbf{V}\mid f(\vec{v})=0\}=f^{-1}(\vec{0})\);
- \(\operatorname{im}f\coloneqq\{\vec{w}\in\mathbf{W}\mid\exist\vec{v}\in\mathbf{V},\vec{w}=f(\vec{v})\}\);
- \(\operatorname{rk}f\coloneqq\dim\operatorname{im}f\).
让我们说人话:
- 核空间就是被映射到零向量的向量集,这里顺带定义了个类似 \(f\) 的逆元的 \(f^{-1}\)。
- 像空间相当于函数中的值域。
- 秩就是像空间的维度,也就是我们这个映射做完后剩下的维度。
有个符合直觉的性质:\(\dim\mathbf{V}=\dim(\ker f)+\operatorname{rk}f\)。
证明可以考虑取 \(\ker f\) 和 \(\operatorname{im}f\) 各一组基底,然后给后者的基底求个逆,两个基底合起来显然是 \(\mathbf{V}\) 的基底。
行列式 Determinant
行列式这个名字是从日本語翻译来的!
讲题人一开始介绍了半天,然后大概想表达一个行列式是一个系数的意思。
这个系数是指:考虑向量的几何意义为 \(n\) 维立方体,如果我们对任意一个立方体做缩放,有向体积(外积)的变化会是一个固定的系数(只要我们用同样的操作去缩放)。
那么代数上的呢?考虑我们解线性方程组,可以把解写成一个分子比分母的形式,行列式就是分母这一块。
行列式的定义可以是 \(\det A=\sum\limits_{\sigma\in[n]}\operatorname{sgn}(\sigma)\prod\limits_{i=1}^n a_{i,\sigma(i)}\)。
也可以是 \(\det A=\sum\limits_{j=1}^n(-1)^{i+j}a_{i,j}M_{i,j}=\sum\limits_{i=1}^n(-1)^{i+j}a_{i,j}M_{i,j}\)。
第二个的意思是 \(i\)(或者 \(j\))任意选一个,然后枚举那一行或者列的所有位置,删去所在行列(\(M_{i,j}\))。
值得一提的是,我们常用高斯消元的方法求解行列式,其中交换两行行列式取反可以用第一个式子很容易地看出:减少一个逆序对后 \(\operatorname{sgn}\) 取反。
伴随矩阵 Adjugate Matrix
上面那个 \(M_{i,j}\) 表示删去 \(i\) 行 \(j\) 列的剩余部分的行列式,被称作余子式。
有一个新东西叫伴随矩阵 \(A^*\),它的定义是 \(A^*_{i,j}=M_{j,i}\)。
有性质 \(A^*A=A^*A=\det A\cdot 1_{n\times n}\) 和 \(A^{-1}=(\det A)^{-1}A^*\),当然要求 \(\det A\) 可逆。
这个东西可以用来求矩阵的逆(划掉)。
特征多项式 Characteristic Polynomial
考虑我们矩阵的元素如果是多项式环 \(\mathbf{F[X]}\),也是可以求行列式的。
此时我们设一个元 \(X\),然后称 \(\det(X\cdot 1_{n\times n}-A)\) 为 \(A\) 的特征多项式。
有个概念是相似矩阵 \(P^{-1}AP\),可以证明相似矩阵的特征多项式相同:\(\det(X\cdot 1_{n\times n}-P^{-1}AP)=\det(P^{-1}(X\cdot 1_{n\times n}-A)P)=\det P^{-1}\det(X\cdot 1_{n\times n}-A)\det P=\det(X\cdot 1_{n\times n}-A)\),原理是 \((X\cdot 1_{n\times n})P=XP=PX\)。
有个神秘的代入是把 \(A\) 带进去替代 \(X\),那么 \(1_{n\times n}\) 的每个元素也是矩阵,然后这个求 \(\det\) 的矩阵的样子貌似是对角线上的位置用一个矩阵减去一个值?什么鬼玩意儿?
上知乎找了一圈没看懂。
OI 中这玩意儿好像不咋出现,那很好了。
不过看一下求法。
先对 \(A\) 消个海森堡矩阵(高消时每步操作增加一次共轭操作,即操作 \(i,j\) 行时操作 \(j,i\) 列),然后可以 \(\mathcal{O}(n^2)\) 求行列式(一个递推 \(g_0=1,g_i=\sum\limits_{k=1}^i{a_{k,i}g_{k-1}\prod\limits_{j=k+1}^i{-a_{j,j-1}}}\)),其中 \(a\) 为 \(A\)。
然后我们就可以拿着这个去算特征多项式了:\(f_i(x)=xf_{i-1}(x)-\sum\limits_{k=1}^i{a_{k,i}f_{k-1}(x)\prod\limits_{j=k+1}^i{a_{j,j-1}}}\),其中 \(a\) 为 \(X\cdot 1_{n\times n}-A\),书写时需要点手法。

浙公网安备 33010602011771号