奇异值分解
奇异值与特征值基础知识
特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。
特征值
如果说一个向量是方阵的特征向量,将一定可以表示成下面的形式:
特征值分解是将一个矩阵分解成下面的形式:
其中是这个矩阵的特征向量组成的矩阵,是一个对角阵,每一个对角线上的元素就是一个特征值。首先,要明确的是,一个矩阵其实就是一个线性变换,因为一个矩阵乘以一个向量后得到的向量,其实就相当于将这个向量进行了线性变换。特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么,可以将每一个特征向量理解为一个线性的子空间,我们可以利用这些线性的子空间干很多的事情。不过,特征值分解也有很多的局限,比如说变换的矩阵必须是方阵。
奇异值
在现实的世界中,我们看到的大部分矩阵都不是方阵,比如说有N个学生,每个学生有M科成绩,这样形成的一个的矩阵就不可能是方阵,我们怎样才能描述这样普通的矩阵呢的重要特征呢?奇异值分解可以用来干这个事情,奇异值分解是一个能适用于任意的矩阵的一种分解的方法:
假设A是一个的矩阵,那么得到的U是一个的方阵(里面的向量是正交的,U里面的向量称为左奇异向量),是一个的矩阵(除了对角线的元素都是0,对角线上的元素称为奇异值),(V的转置)是一个的矩阵,里面的向量也是正交的,V里面的向量称为右奇异向量),从图片来反映几个相乘的矩阵的大小可得下面的图片
那么奇异值和特征值是怎么对应起来的呢?首先,我们求的特征值: 这里得到的,就是我们上面的右奇异向量。此外我们还可以得到:
这里的就是上面说的奇异值,就是上面说的左奇异向量。奇异值跟特征值类似,在矩阵中也是从大到小排列,而且的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了