【线性代数公开课MIT Linear Algebra】 第二十一课 特征值与特征向量

本系列笔记为方便日后自己查阅而写,更多的是个人见解,也算一种学习的复习与总结,望善始善终吧~

何为特征向量、特征值

Ax就好比f(x),这是一种针对多维的操作,而我们关心的就是经过变换后方向不变的向量即Ax=λx,x就是特征向量,λ就是特征值。

我们的目的就是要找到矩阵A的所有特征值和对应的特征向量,很自然的我们会关注存在λ为零的情况,此时要想特征向量x存在,那么就等于要使得Ax=0中的A为奇异矩阵Singular Matrix,反之,当A为奇异矩阵Singular Matrix,则0为其中一个特征值,特征向量在其null space。

试试看不同矩阵有何特性吧,对于投影矩阵,很明显在其column space中的vector的投影就是它自己,其方向不变,故存在特征值为1的特征向量,还有一个什么样的向量?垂直于column space的,因为垂直时投影为0,存在特征值为0的特征向量(垂直于column space)。

剧透关于特征值的性质

nn矩阵有n个特征值;特征值的和等于矩阵对角线上所有元素的和,这被称为迹trace;特征值的积等于行列式的值。

回到Ax=λx

Ax=λx
(AλI)x=0
(AλI)
det(AλI)=0
这个方程就是求解特征值的核心,有了方程我们就可以解出特征值,有了特征值就能求解对应的特征向量。

好玩的性质

对于A矩阵和A+3I这个矩阵的特征值和特征向量有什么特点?
Ax=λx(A+3I)=λx+3x=(λ+3)x
所以特征向量不变,特征值加3,这或许从另一个角度帮助我们理解何为“特征”。

一些特殊的情况

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zggzxf.html