特異値(SVD)の物理的な意味では何ですか?

特異値行列が取得(特異値分解、SVD分解が呼ばれる)は通常、特異値分解によって、数学的な意味の概念です。あなたは特異値表現の物理的な意味が何であるかを尋ねるならば、我々は、実際のエンジニアリングアプリケーションに対応する特異値で異なる意味を考慮しなければなりません。以下は、最初のは、彼らが何を意味するか、特異値を見てみましょう、絵から、直感的な、厳密な数学的記号操作を避けるようにしてください。


これは、写真の女神上野樹里(上野樹里)、高さ450個のピクセル幅* 333でした。(オタク面)を一時停止するための画面なめます  

                                                                                 

 

このような順序マトリックスとして、我々はすべて、実際にマトリクスのマトリクスサイズに対応する画像は画素サイズであることを知っているが、この画像に対応する行列の各要素の値は、画素値に対応する、* 333 450です。我々は、この画素マトリックス覚えAを

今、私たちは行列持つ特異値分解を。直感的に、いくつかの行列とランクに行列の特異値分解は、式で表されます。

右前係数方程式のそれぞれが前記特異値であり、そしてそれぞれの列ベクトルを表し、行列のランクがランク1の行列であることを意味します。各通知は、階数1の行列です。私たちは、特異値が満たすことを前提とし ていない場合は、あなたが質問番号順以外の何物でもないために、並べ替えることができます。(0より大きい特異値が重要な性質であるが、まず、ここで心配しないでください)。


特異値を降順に配置されているので、我々は自然にのみ大きな特異値を保持する場合より小さな特異値を丸め、依頼する必要があり、(1)天然の式では、もはや成立するように、それはないであろう行列のどのような - それはイメージですか?

だから、のみ(1)第一項適度右側、及び、マッピングを保持します。

                                                                                 

結果は全く不明であるに来た......我々が増加よりもさらにいくつかを試してみましたものです:

そしてマッピング

                                                           

 

これは、漠然と認識できる短い髪ギャルココナッツの顔である......それでも、結局のところ、我々は唯一の5つの特異値のみ非常に漠然としました。ここでは、構成前の20からつまり、(1)RHS、特異値20を取るしようと20です

                                                           

虽然还有些马赛克般的模糊,但我们总算能辨别出这是Juri酱的脸。当我们取到(1)式等式右边前50项时:

                                                           

我们得到和原图差别不大的图像。也就是说当k从1不断增大时,不断的逼近A。让我们回到公式

                                                                      

矩阵A表示一个450*333的矩阵,需要保存个元素的值。等式右边分别是450*1和333*1的向量,每一项有元素。如果我们要存储很多高清的图片,而又受限于存储空间的限制,在尽可能保证图像可被识别的精度的前提下,我们可以保留奇异值较大的若干项,舍去奇异值较小的项即可。例如在上面的例子中,如果我们只保留奇异值分解的前50项,则需要存储的元素为,和存储原始矩阵A相比,存储量仅为后者的26%。

 

下面可以回答题主的问题:奇异值往往对应着矩阵中隐含的重要信息,且重要性和奇异值大小正相关。每个矩阵A都可以表示为一系列秩为1的“小矩阵”之和,而奇异值则衡量了这些“小矩阵”对于A的权重。

在图像处理领域,奇异值不仅可以应用在数据压缩上,还可以对图像去噪。如果一副图像包含噪声,我们有理由相信那些较小的奇异值就是由于噪声引起的。当我们强行令这些较小的奇异值为0时,就可以去除图片中的噪声。如下是一张25*15的图像(本例来源于[1])

                                                                                 

但往往我们只能得到如下带有噪声的图像(和无噪声图像相比,下图的部分白格子中带有灰色):                                                    

                                                                                   

通过奇异值分解,我们发现矩阵的奇异值从大到小分别为:14.15,4.67,3.00,0.21,……,0.05。除了前3个奇异值较大以外,其余奇异值相比之下都很小。强行令这些小奇异值为0,然后只用前3个奇异值构造新的矩阵,得到

                                                                                  

可以明显看出噪声减少了(白格子上灰白相间的图案减少了)。

奇异值分解还广泛的用于主成分分析(Principle Component Analysis,简称PCA)和推荐系统(如Netflex的电影推荐系统)等。在这些应用领域,奇异值也有相应的意义。

考虑题主在问题描述中的叙述:“把m*n矩阵看作从m维空间到n维空间的一个线性映射,是否:各奇异向量就是坐标轴,奇异值就是对应坐标的系数?”我猜测,题主更想知道的是奇异值在数学上的几何含义,而非应用中的物理意义。下面简单介绍一下奇异值的几何含义,主要参考文献是美国数学协会网站上的文章[1]。

下面的讨论需要一点点线性代数的知识。线性代数中最让人印象深刻的一点是,要将矩阵和空间中的线性变换视为同样的事物。比如对角矩阵作用在任何一个向量上

                                                                                 

其几何意义为在水平方向上拉伸3倍,方向保持不变的线性变换。换言之对角矩阵起到作用是将水平垂直网格作水平拉伸(或者反射后水平拉伸)的线性变换

 

                                                                                 

                                                                                 

 

如果不是对角矩阵,而是一个对称矩阵

                                                                                 

那么,我们也总可以找到一组网格线,使得矩阵作用在该网格上仅仅表现为(反射)拉伸变换,而没有旋转变换

 

                                                                                 

                                                                                 

 

考虑更一般的非对称矩阵

                                                                                 

很遗憾,此时我们再也找不到一组网格,使得矩阵作用在该网格上之后只有拉伸变换(找不到背后的数学原因是对一般非对称矩阵无法保证在实数域上可对角化,不明白也不要在意)。我们退求其次,找一组网格,使得矩阵作用在该网格上之后允许有拉伸变换和旋转变换,但要保证变换后的网格依旧互相垂直。这是可以做到的

                                                                                 

                                                                                 

下面我们就可以自然过渡到奇异值分解的引入。奇异值分解的几何含义为:对于任何的一个矩阵,我们要找到一组两两正交单位向量序列,使得矩阵作用在此向量序列上后得到新的向量序列保持两两正交。下面我们要说明的是,奇异值的几何含义为:这组变换后的新的向量序列的长度。

 

                                                                                 

                                                                                 

 

当矩阵作用在正交单位向量上之后,得到也是正交的。令
分别是和方向上的单位向量,即,写在一起就是,整理得:

                                               
这样就得到矩阵的奇异值分解。奇异值分别是和的长度。很容易可以把结论推广到一般维情形。


下面给出一个更简洁更直观的奇异值的几何意义(参见[2])。先来一段线性代数的推导,不想看也可以略过,直接看黑体字几何意义部分:
假设矩阵A的奇异值分解为

                                                                                 

其中是二维平面的向量。根据奇异值分解的性质,线性无关,线性无关。那么对二维平面上任意的向量,都可以表示为:
A作用在上时,

                                        

 

,我们可以得出结论:如果是在单位圆上,那么正好在椭圆上。这表明:矩阵A将二维平面中单位圆变换成椭圆,而两个奇异值正好是椭圆的两个半轴长,长轴所在的直线是,短轴所在的直线是

推广到一般情形:一般矩阵A将单位球变换为超椭球面那么矩阵A的每个奇异值恰好就是超椭球的每条半轴长度。
 


                                                       

おすすめ

転載: blog.csdn.net/qq_30263737/article/details/91868146