1.线代相关:基,变换

线性代数的起点有两个,1是解线性方程组,2是线性变换。这里从线性变换开始。

一、首先,就是对于一个向量的描述,向量本身是和空间在一起的。

想要给于向量\large \vec{a}给出一个确切描述,就必须选择它所在空间的一组(极大无关)基向量\large \begin{bmatrix} \vec{\alpha 1} &\vec{\alpha 2} &... &\vec{\alpha n} \end{bmatrix},

对于一个完备的向量空间来说,所有的向量都可以通过它的基向量线性表出,即:

\large \vec{a} =\begin{bmatrix} \vec{\alpha 1} &\vec{\alpha 2} &... &\vec{\alpha n} \end{bmatrix}*\begin{bmatrix} a1\\ a2\\ ...\\ an \end{bmatrix}, 那么所对应的\large \begin{bmatrix} a1\\ a2\\ ...\\ an \end{bmatrix}我们就称为向量\large \vec{a}的坐标。

要注意到的是:基向量组只能是以抽象的形式表示出来,即以这种形式表示出来:

\large \begin{bmatrix} \vec{\alpha 1} &\vec{\alpha 2} &... &\vec{\alpha n} \end{bmatrix}\large \begin{bmatrix} \vec{ \beta 1} &\vec{\beta2} &... &\vec{\beta n} \end{bmatrix}....

当我们试图以\large \vec{\alpha 1} =\begin{bmatrix} 1\\0 \end{bmatrix},\large \vec{\alpha 2} =\begin{bmatrix} 0\\1 \end{bmatrix}这种方式说明\large \vec{\alpha 1},\vec{\alpha 2}是基向量的时候,已经隐含的重要事实是:

我们已经把所在空间的向量\large \begin{bmatrix} 1\\0 \end{bmatrix}\large \begin{bmatrix} 0\\1 \end{bmatrix}当成了标准基,虽然\large \vec{\alpha 1}说是基向量,但它其实只是一个坐标,它代表着\large 1*\begin{bmatrix} 1\\0 \end{bmatrix}+0*\begin{bmatrix} 0\\1 \end{bmatrix}

(这里是举个例子,和前面基向量组只能以抽象形式表述不冲突,因为在空间中,我们必须实际的指出\large \begin{bmatrix} 1\\0 \end{bmatrix}\large \begin{bmatrix} 0\\1 \end{bmatrix}代表哪一个确定的向量)

所以,当我们写任何向量\large \vec{a} =\begin{bmatrix} 1\\2 \end{bmatrix}的时候,它默认了基向量组是那个单位阵I中的基向量组,它意味着向量\large \vec{a}在默认基向量组张成的空间中,坐标表示为1和2。

以上就是向量在给定一组基下后的坐标表示。

二、

接下来的是在同一组基下,对于一个在坐标表示下的向量,施以线性变换T。这个线性变换以矩阵A的形式给出。

默认是标准基下,如果我们给出变换前的向量坐标以及对应变换后的向量坐标,那么这个线性变换可以确定,

即变换前的向量\large \vec{x}=\large \begin{bmatrix} x1\\x2 \\x3 \end{bmatrix},变换后的向量\large \vec{y} = \begin{bmatrix} y1\\y2 \\ y3 \end{bmatrix},那么就有\large \vec{y}=A\vec{x}

紧接着就是不同基之下的坐标变换:以三维为例

原先的基向量组为\large \begin{bmatrix} \vec{\alpha1} &\vec{\alpha2} &\vec{\alpha3} \end{bmatrix},变换后的基向量组\large \begin{bmatrix} \vec{\beta1} &\vec{\beta2} &\vec{\beta3} \end{bmatrix},\large P是从\large \alpha基到\large \beta基的过渡矩阵。

便有\large \begin{bmatrix} \vec{\beta1} &\vec{\beta2} &\vec{\beta3} \end{bmatrix}\large =\begin{bmatrix} \vec{\alpha1} &\vec{\alpha2} &\vec{\alpha3} \end{bmatrix}P

这里最需要注意的一点是:我们虽然说它们是基向量,但暗含的是它们其实是标准基下的坐标。

我们将标准基“封装“了起来,直接说变换前的基向量\large \vec{\alpha1}=\begin{bmatrix} 1\\2 \\ 3 \end{bmatrix}, \vec{\alpha2}=\begin{bmatrix} 1\\0 \\ -1 \end{bmatrix}, \vec{\alpha3}=\begin{bmatrix} 0\\2 \\ 3 \end{bmatrix},,

变换后的基向量\large \vec{\beta1}=\begin{bmatrix} 2\\3 \\ 1 \end{bmatrix}, \vec{\beta2}=\begin{bmatrix} -1\\0 \\ 1 \end{bmatrix}, \vec{\beta3}=\begin{bmatrix} 0\\0 \\ 4 \end{bmatrix},,但是实际上,它们还是坐标,以后的处理当中,要把它们当成坐标进行处理。

(这一段如果看着实在很难理解,可以去看Gilbert strang的<<introduction to linear algebra>>在第四版中,Chapter7:

linear transgormations 这一章有最初的讲解,再加上自己的理解和思考)

三、

先看一个图,在图中,过渡矩阵是\large A

以A为过渡矩阵

注意红线处的话:过渡矩阵的每一列其实都是变换后的基向量在之前基向量张成空间下的坐标。

上面的一小段是对于基向量的变换,接下来就是推导相应坐标之间的变换。

对于同一个向量,有\large \begin{pmatrix} \vec{\beta1} &\vec{\beta2} & \vec{\beta3} \end{pmatrix}\begin{bmatrix} y1\\y2 \\y3 \end{bmatrix}=\begin{pmatrix} \vec{\alpha1} &\vec{\alpha2} & \vec{\alpha3} \end{pmatrix}\begin{bmatrix} x1\\x2 \\ x3 \end{bmatrix}\large x\large y分别是变换前和变换后,同一个向量的坐标表示,同时还有\large \begin{pmatrix} \vec{\beta1} &\vec{\beta2} &\vec{\beta3} \end{pmatrix}\large =\begin{pmatrix} \vec{\alpha1} &\vec{\alpha2} &\vec{\alpha3} \end{pmatrix}P,对比两式我们有:\large x=Py\large y=P^{-1}x

\large P^{-1}\large \beta基到\large \alpha基下的过渡矩阵。

总结一下就有:在给定的\large \alpha基下,一个向量如果以坐标\large x表示出来,那么在对\large \alpha基进行线性组合\large P下形成的新基(\large \beta基)中,这个向量的坐标是\large P^{-1}x

四、对于不同基下,线性变换的描述

相似矩阵表述了这样一个事实:

假设有一个向量\large c,它在\large \beta基下,是以\large \begin{bmatrix} y1\\y2 \\ y3 \end{bmatrix}表示,如果我们对它进行变换\large T\large T\large \beta基的矩阵表示为\large B,那么变换后的向量坐标为\large By,与此同时,我们还知道,\large \beta基是有\large \alpha基过渡而来,即存在\large P使得\large \beta = \alpha P成立,那我们可以先把向量\large c\large \alpha基表示出来,然后再进行变换\large T,最后再变回来,到\large \beta基下。

首先,如何表示呢?由三中的讨论可以有:向量\large c\large \alpha基表示的坐标为:\large P^{-1}y,然后再进行变换T,需要注意的是

此时变换T应该是在\large \alpha基下的矩阵表示,为矩阵A,进行到这一步后,得到了:\large AP^{-1}y,最后一步是将这个坐标变换回原先\large \beta基下,由坐标变换公式有:\large PAP^{-1}y

对比一下,就有了那个很明显的式子:\large By=PAP^{-1}y,这也正好就是相似矩阵的本质。

最明显的应用就是矩阵的相似对角化,\large A=P\Lambda P^{-1},如果在标准基下,对一个向量进行变换\large A,计算起来太复杂,那么我们可以选取A的特征向量集作为新的一组基,那么A这个矩阵的代表的变换在这组新基下,就会变的非常简单,因为\large \Lambda矩阵所代表的变换仅仅只是将向量做了一个数乘而已。

同样的一个例子是SVD分解:\large A=U\Sigma V^{T}:如图所示:

图片来源于Gilbert Strang的introduction to Linear algebra P366。

这篇文章写到这里就结束了,感觉自己还是有些东西没法完全写出来,有些东西还是有遗漏。还需要多多的锻炼。

PS:在自己进行这些思考和阅读参考文献的时候,有个很深的感受就是:

这些都是直观上被我们所理解,我们在实际用的时候是不用去想这么多的。

就好比是小学生学习1+1=2,老师总是先要以1个苹果和1个苹果放在一起,bang!两个苹果,这种浅显直观的例子让我们更好地理解那个式子的意义是什么,可是,随着学的东西越来越多,1+1=2 它仅仅就是一个抽象的表达式,我们早已经忘了有任何直观上的理解。同理,我们以后用的时候,\large A=P\Lambda P^{-1}\large A=U\Sigma V^{T}直接用就可以了,没有去刻意想什么变换,正交的意义。这没有什么对错,但是对于初学者来说,我觉得还是知道它代表什么意义更好一些。以这种更直观的方法去感受,可能会有更深入的理解

关键是,很多老师都不会去讲,还是得靠自己去思考和总结,路漫漫其修远兮啊

猜你喜欢

转载自blog.csdn.net/enthwxq/article/details/83932116
今日推荐