奇异值分解的原理
特征值和特征向量
特征值和特征向量的定义如下:
$$
Ax = \lambda x
\tag{1}
$$
其中,$\lambda$是一个标量,$x$是一个向量,$\lambda$称作矩阵$A$的特征值,$x$是其对应的特征向量。
求得所有特征值和特征向量后,我们就可以对矩阵 A 进行特征分解。具体如下:
$$
A = W \Sigma W^{-1}
\tag{2}
$$
其中,$W$是由$A$的所有特征向量组成的$n\times n$维矩阵。$\Sigma$是以$A$的所有特征值$\lambda_1,\lambda_2,\dots,
\lambda_n$为对角线的对角矩阵。我们一般会把$W$的这$n$个特征向量标准化,即满足$||w_i|| = 1$或者$w_i^T \cdot w_i = w_i^T
w_i=1$,此时,$W$的$n$个向量为标准正交基。
故:
$$
W^{-1} = W^T
\tag{3}
$$
这样我们的特征分解表达式可以写成
$$
A = W \Sigma W^T
\tag{4}
$$