22-对角化和A的幂

一、对角化

 由$Ax=\lambda x$,根据上一节所讲,我们可以求出若干个特征值和特征向量,那么我们然后可以用来干什么呢?

 我们假设经过求解得到$n$个线性无关的特征向量,按列组成矩阵$S$,我们称$S$为特征向量矩阵,我们先来算一下$AS$:

$AS=A[x_1 \space x_2 \space ... \space x_n ]$,x为每一个特征列向量

 由$Ax=\lambda x$得到:

$A S=\left[\begin{array}{llllllllll}{\lambda_{1} x_{1}} & {\lambda_{2} x_{2}} & {\dots} & {\lambda_{n} x_{n}]=\left[x_{1}\right.} & {x_{2}} & {\dots} & {x_{n}}\end{array}\right]\left[\begin{array}{cccc}{\lambda_{1}} & {0} & {0} & {0} \\ {0} & {\lambda_{2}} & {0} & {0} \\ {0} & {0} & {\ldots} & {0} \\ {0} & {0} & {0} & {\lambda_{n}}\end{array}\right]=S \Lambda$

等式右边同乘$S^{-1}$:$A=S \Lambda S^{-1}$,这样我们就可以将$A$对角化($S$和$\Lambda$都是已经求出来的)

 

 $A^2$等于多少呢?

$A^{2}=S \Lambda S^{-1} S \Lambda S^{-1}=S \Lambda^{2} S^{-1}, \Lambda=\left[\begin{array}{cccc}{\lambda_{1}^{2}} & {0} & {0} & {0} \\ {0} & {\lambda_{2}^{2}} & {0} & {0} \\ {0} & {0} & {\ldots} & {0} \\ {0} & {0} & {0} & {\lambda_{n}^{2}}\end{array}\right]$

所以:$A^{K}=S \Lambda^{K} S^{-1}$

特征值和特征向量提供了理解矩阵幂的一个好方法,当$K$趋向无穷时,只要$|\lambda_i|$小于1,$A^K$就趋向于$0$

注意:以上都需要一个前提,就是矩阵$A$存在$n$个线性无关的特征向量,否则不能对角化,对角化只有$S$可逆时才能行得通

 

二、特征值是否有重复

 1)当矩阵$A$的所有特征值都不相等(即不存在重复的特征值),则$A$必然存在$n$个线性无关的特征向量,$S$可逆,$A$可以对角化

 2)当矩阵$A$存在重复的特征值,就需要深入研究了:可能但不一定存在$n$个线性无关的特征向量

  如单位矩阵,其特征值都是$1$,但特征向量都线性无关

  又如:

$A=\left[\begin{array}{ll}{2} & {1} \\ {0} & {2}\end{array}\right], \operatorname{det}(A-\lambda I)=\left|\begin{array}{cc}{2-\lambda} & {1} \\ {0} & {2-\lambda}\end{array}\right|,(2-\lambda)^{2}=0, \lambda_{1}=\lambda_{2}=2$

  $A-\lambda I=\left[\begin{array}{ll}{0} & {1} \\ {0} & {0}\end{array}\right]$,$Rank=1$,所以零空间只有一个向量:

$X=\left[\begin{array}{ll}{0}\\ {1}\end{array}\right]$,不存在$n$个线性无关的特征向量,不能被对角化

 

三、求解方程

 已知某个向量$u_0$和一个矩阵$A$,并且知道:$u_{k+1} = Au_k$,如何求$u_{100}$呢?

 我们可以递推:$u_1 = Au_0$,然后$u_2=Au_1=AAu_0=A^2u_0$,等等直到推出$u_{100}$,我们当然不能选择这样的解法,但通过递推我们知道:

$u_{100} = A^{100}u_0$,这样我们通过计算$A^{100}$然后乘以$u_0$即可,但是计算量也不小

 我们换一种求法:既然我们知道矩阵$A$,我们可以获得$A$的特征向量和特征值,并假设:

$u_0=c_1x_1 + c_2x_2 + c_3x_3+...+c_nx_n$,$x_i$是特征向量($u_0$和特征向量均是已知的,$c$可以设定,也可知道)

 等式左右均乘以$A$:

$Au_0=Ac_1x_1 + Ac_2x_2 + Ac_3x_3+...+Ac_nx_n$

$c$是系数,可以放左边,这样$Ax=\lambda x$就派上用

$Au_0=c_1\lambda_1x_1 + c_2\lambda_2x_2 + c_3\lambda_3x_3+...+c_n\lambda_nx_n$

 等式左右均再乘以$A$:

$A^2u_0=c_1\lambda_1^2x_1 + c_2\lambda_2^2x_2 + c_3\lambda_3^2x_3+...+c_n\lambda_n^2x_n$

 多次乘$A$后:

$A^ku_0=c_1\lambda_1^kx_1 + c_2\lambda_2^kx_2 + c_3\lambda_3^kx_3+...+c_n\lambda_n^kx_n$

 当$k=100$时,我们就可以求得$u_{100}$,因为后面的$\lambda, c, x$均是已知的,计算方便的很

 

四、斐波拉契序列

 $0, 1, 1, 2, 3, 5, 8, 13, 21, 34, ... , $那么第100项是多少呢?我们知道对于斐波拉契序列:

$F_{k+2} = F_{k+1} + F_k$

 我们又知道:

$F_{k+1} = F_{k+1}$

 我们定义:

$U_{k}=\left[\begin{array}{c}{F_{k+1}} \\ {F_{k}}\end{array}\right]$

 则:

$U_{\mathrm{k}+1}=\left[\begin{array}{ll}{1} & {1} \\ {1} & {0}\end{array}\right]*U_{k} \Leftrightarrow U_{\mathrm{k}}=A^{k} U_{0}$

 根据上面叙述及三中所讲,我们知道:

$\mathrm{u}_{0}=\left[\begin{array}{c}{F_{1}} \\ {F_{0}}\end{array}\right]=\left[\begin{array}{l}{1} \\ {0}\end{array}\right]=\mathrm{c}_{1} x_{1}+\mathrm{c}_{2} x_{2}$

其中$c$是系数,$x$是矩阵$\left[\begin{array}{ll}{1} & {1} \\ {1} & {0}\end{array}\right]$的特征向量

 我们求出矩阵的特征向量:

$|A-\lambda I|=\left|\begin{array}{cc}{1-\lambda} & {1} \\ {1} & {-\lambda}\end{array}\right|=\lambda^{2}-\lambda-1, \quad \lambda_{1}=\frac{1+\sqrt{5}}{2}, \quad \lambda_{2}=\frac{1-\sqrt{5}}{2}$

 

$[A-\lambda I]=\left[\begin{array}{cc}{1-\lambda} & {1} \\ {1} & {-\lambda}\end{array}\right]\left[\begin{array}{cc}{\lambda}\\ {1}\end{array}\right]=\left[\begin{array}{cc}{0}\\ {0}\end{array}\right]$

所以特征向量为:$\left[\begin{array}{cc}{\lambda}\\ {1}\end{array}\right]$,即:

$x_1=\left[\begin{array}{cc}{\frac{1+\sqrt{5}}{2}}\\ {1}\end{array}\right],x_2=\left[\begin{array}{cc}{\frac{1-\sqrt{5}}{2}}\\ {1}\end{array}\right]$

再结合:$\mathrm{u}_{0}=\left[\begin{array}{l}{1} \\ {0}\end{array}\right]=\mathrm{c}_{1} x_{1}+\mathrm{c}_{2} x_{2}$

可知:$c_1=\frac{\sqrt{5}}{5}, c_2=-\frac{\sqrt{5}}{5}$

最后根据三中所讲:$U_{\mathrm{k}}=A^{k} U_{0}=c_1\lambda_1^kx_1 + c_2\lambda_2^kx_2, k=100$

即可求出$U_{100}$

并且知道序列增长速度主要决定于$\lambda_1=\frac{1+\sqrt{5}}{2}$,因为$\lambda_2$绝对值小于1,$n$次方后都几乎为0

posted @ 2020-02-15 15:57  1直在路上1  阅读(624)  评论(0编辑  收藏  举报