机器学习数学知识积累之线性代数解析几何,微积分 (5)

1.n阶方阵在复数域中具有n个特征值。但不一定有n个实数特征值,但是如果方阵是一个对称矩阵,则必然有n个实特征值(有可能有重根!)

2.设$\lambda_1,\lambda_2,...,\lambda_n$是n阶方阵A的n个特征值,则

a. $\lambda_1+\lambda_2+..+\lambda_n = a_{11}+a_{22}+..+a_{nn}=tr(A)$,其中$tr(A)$被称为矩阵A的迹

b.$\lambda_1\lambda_2..\lambda_n = |A|$

c. 如果A可逆,$\lambda$是A的特征值,则: 1)$\lambda^{-1}$是$A^{-1}$的特征值。 2) $|A|\lambda^{-1}$是伴随矩阵$A^{*}$的特征值

如果A可逆,则其特征向量也是$A^{-1}$和$A^{*}$的特征向量 

d. 如果$\lambda$是$A$的特征值,那么$f(\lambda)$必然是$f(A)$的特征值,比如$f(\lambda) = a_0+a_1\lambda+a_2\lambda^{2} , f(A) = a_0E+a_1A+a_2A^{2} $

https://blog.csdn.net/fuming2021118535/article/details/51339881

线性变换

线性变换(矩阵乘法)可以和函数做类比:

自变量$x$经过函数$f(x)$的作用后输出$y$,如下

$$x\rightarrow f(x)\rightarrow y$$

向量$\vec{x}$经过线性变换$L(\vec{x})$作用后(也可以说左乘一个矩阵)输出向量$\vec{y}$,如下

$$\vec{x}\rightarrow L(\vec{x}) \rightarrow \vec{y}$$

凡是满足以下运算的就定义为线性变换

$L(\vec{v} + \vec{w}) = L(\vec{v}) + L(\vec{w})$ 向量的加法运算

$L(c\vec{v}) = cL(\vec{v})$ 向量的数乘运算

线性变换作用后向量空间变换前后有以下特点:

所有直线变换后依然为直线

所有均匀分布的点变换后依然均匀分布

原点在变换前后保持不变

线性变换是操作线性空间的手段,这种变换往往只需要几个数字组成的矩阵就能准确描述。对于二维向量空间,我们可以将线性变换视为对二维空间基向量$\vec{i}, \vec{j}$的作用来确定,往往用变换后形成的$\widehat{\vec{i}},\widehat{\vec{j}}$分别作为矩阵的一列形成的矩阵来描述这个线性变换。

将该线性变换应用到一个向量$$\begin{pmatrix}x\\  y \end{pmatrix}$$上去的话,这里我们用坐标的形式来表示向量,则就等价于左乘一个矩阵

$$\begin{pmatrix}a & b\\ c & d\end{pmatrix} \vec{\begin{pmatrix}x\\ y\end{pmatrix}} = x \vec{\begin{pmatrix}a\\ b\end{pmatrix}}+y\vec{\begin{pmatrix}b\\ d\end{pmatrix}}$$

以后我们看到一个左乘一个矩阵就应该联想到它对线性空间做了变换

矩阵是线性变换的表达形式,每一个列我们都可以看作线性变换的子步骤,比如

$\begin{pmatrix}1 & 1\\ 0 & 2\end{pmatrix}$这个矩阵代表的变换我们可以这样理解:先对$\vec{i}$从$(1,0)$变换到$(1,1)$,随后再对$\vec{j}$从$(0,1)$变换到$(0,2)$

线性变换后的空间不降纬的充分必要条件是其行列式不等于0,因为如果等于0,则缩放系数就成了0,无法无损恢复信息。

线性变换的矩阵函数观点 矩阵函数的定义域值域:($A^{m\times n}$):

左乘

机器学习数学知识积累之线性代数解析几何,微积分

例如,矩阵$A = \begin{pmatrix}1 & -1\\ 1 & 1\\ 1 & 2\end{pmatrix}$是一个3行两列的矩阵,他将一个二维的向量映射成为三维的向量,如下图:

机器学习数学知识积累之线性代数解析几何,微积分

右乘

机器学习数学知识积累之线性代数解析几何,微积分

向量线性变换后向量的坐标

设$\alpha = x_1\varepsilon_1+x_2\varepsilon_2+..+x_n\varepsilon_n = (\varepsilon_1,\varepsilon_2,..,\varepsilon_n)X, X=(x_1,x_2,..,x_n)^T$,也就是说$\alpha$关于基低$\varepsilon_1,\varepsilon_2,..,\varepsilon_n$的坐标为$X$,则经过矩阵A做线性变换后的向量$A\alpha$在$\varepsilon_1,\varepsilon_2,..,\varepsilon_n$基低下的坐标等于$AX$

线性变换的矩阵

机器学习数学知识积累之线性代数解析几何,微积分

下图列出一个求解线性变换矩阵的例子:

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zzwxgz.html