Linear Algebra 学习笔记【定义篇】
\(A\ =\ (a_1,\ a_2,\ a_3,\ ...,\ a_n),\ x\ =\ (x_1,\ x_2,\ x_3,\ ...,\ x_n)^T,\ Ax\ =\ \sum_{i\ =\ 1}^n\ x_i\ a_i\)
\(x\ =\ (x_1,\ x_2,\ x_3,\ ...,\ x_n),\ A\ =\ (a_1,\ a_2,\ a_3,\ ...,\ a_n)^T,\ xA\ =\ \sum_{i\ =\ 1}^n\ x_i\ a_i^T\)
矩阵乘法五种方式:
\(AB\ =\ C\)
- \(C_{i,\ j}\ =\ \sum_{k\ =\ 1}^N\ A_{i,\ k}\ B_{k,\ j}\)
- \(B\ =\ (b_1,\ b_2,\ b_3,\ ...\ b_P),\ C\ =\ (A\ b_1,\ A\ b_2,\ A\ b_3,\ ...\ A\ b_P)\) C is combination of columns of A
- \(A\ =\ (a_1,\ a_2,\ a_3,\ ...,\ a_M)^T,\ C\ =\ ((a_1^T\ B)^T,\ (a_2^T\ B)^T,\ (a_3^T\ B)^T,\ ...,\ (a_M^T\ B)^T)^T\) C is combination of rows of B
- \(C\ =\ \sum_{i\ =\ 1}^N\ (i^{th}\ colomn\ of\ A)(i^{th}\ row\ of\ B)\)
- 若 \(a_{i,\ j},\ b_{i,\ j}\) 为块,\(1.\) 方法一样适用
Elimination 就是将 \(A\) 变成 \(U\ (U is upper triangular matrix)\),\(EA\ =\ U\),\(E\) 为操作矩阵
矩阵 \(A\) 的逆 \(A^{-1}\),有性质 \(A\ \cdot\ A^{-1}\ =\ A^{-1}\ \cdot\ A\ =\ I\)
\(A\) 可逆当且仅当存在一个非0向量 \(x\),\(Ax\ =\ 0\)
\([A\ |\ I]\) 通过消元得到 \([I\ |\ A^{-1}]\),证明是设消元矩阵为 \(E\),则 \(E\ \cdot\ [A\ |\ I]\ =\ [I\ |\ E]\),同时因为 \(E\ \cdot\ A\ =\ I\),所以得证
Transpose of Matrix: \(A^T_{i,\ j}\ =\ A_{j,\ i}\)
\((AB)^T\ =\ B^T\ A^T\)
\((A^T)^{-1}\ =\ (A^{-1})^T\)
消元时 \(EA\ =\ U\) 也可写作 \(A\ =\ LU\),其中 \(L\ =\ E^{-1}\),且 \(L\) 为下三角矩阵
\(A\) 的 trace:\(tr(A)\ =\ \sum_{i\ =\ 1}^n\ A_{i,\ i}\ =\ \sum_{i\ =\ 1}^n\ \lambda_i\)。
\(A^k\) 的 eigenvalue 为 \(\lambda_1^k,\ \lambda_2^k,\ ...,\ \lambda_n^k\)。
\(det(A)\ =\ \Pi_{i\ =\ 1}^n\ \lambda_i\)
矩阵对角化:\(A\ =\ P\Lambda P^{-1}\),其中 \(\Lambda_{i,\ i}\ =\ \lambda_i\)
Jordan normal form:对于每个出现 \(a_i\) 次的 \(\lambda_i\) 写成 $\lambda_i\ I_{a_i\ *\ a_i}\ +\ $ 对角线上方一条斜线全 \(1\) 的矩阵。
Generalized eigenvector 的求解方法是对每个 \(a_i\) 重根 \(\lambda_i\),有 \((A\ -\ \lambda_iI)\ v_{i_1}\ =\ 0\),\((A\ -\ \lambda_iI)\ v_{i_j}\ =\ v_{i_{j\ -\ 1}}\)
但感觉后面这些东西如果矩阵随意,不知道特征值,还是很凉啊。。
两个矩阵 \(A,\ B\) 是相似的如果存在 \(P\) 使得 \(P^{-1}AP\ =\ B\)。
如果 \(\lambda\) 是 \(A\) 的特征值,\(\alpha\) 是 \(A\) 的特征向量,则 \(f(\lambda)\) 是 \(f(A)\) 的特征值,\(\alpha\) 是 \(f(A)\) 的特征向量。
矩阵题打表有一种方法就是从小到大打表,看能否由小的递归构成。

浙公网安备 33010602011771号