向量的基本概念 - 线性代数课时0(MIT Linear Algebra , Gilbert Strang)

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/wanhongluli/article/details/82765040

本课不存在于MIT Linear Algebra 公开课视频中,是线性代数基础概念介绍,在Strang教授得《Introduction to linear algebra》第一章能找到相关内容。

    向量的基本概念

知识点:

  • 向量和线性组合(Vectors and Linear Combinations)
  • 向量内积(点积 ·)和长度(Lengths and Dot Products)
  • 矩阵A,线性方程组Ax =b 和它的解inv(A)b  

向量和线性组合(Vectors and Linear Combinations)

向量的线性组合: 对于向量vw ,v,w的线性组合:cv+dw,线性组合包括种运算:向量的加法和标量与向量相乘。

向量加法:对于两个列向量v,w

        v=\begin{bmatrix} v1\\ v2 \end{bmatrix},w=\begin{bmatrix} w1\\ w2 \end{bmatrix} v+w=\begin{bmatrix} v1\\ v2 \end{bmatrix}+\begin{bmatrix} w1\\ w2 \end{bmatrix} = \begin{bmatrix} v1+w1\\ v2+w2 \end{bmatrix} 

标量乘向量:对于标量c 和向量v

        v=\begin{bmatrix} v1\\ v2 \end{bmatrix}, cv=c\begin{bmatrix} v1\\ v2 \end{bmatrix}=\begin{bmatrix} cv1\\ cv2 \end{bmatrix}

    向量的线性组合是线性代数中最基础也是最核心的概念之一,向量加法和标量乘向量是最基础和核心的两个运算操作。

向量内积(点积 ·)和长度(Lengths and Dot Products)

内积定义:以二维向量为例向量v=(v1,v2)和w=(w1,w2)的内积v·w = v1*w1 + v2*w2,推广到多维向量v·w

        \sum_{i=0}^{n}viwi

内积联系了线性代数和空间几何,它包含了同纬空间中两个向量的角度关系和两个向量本身的几何长度信息,所以内积是一个很重要也经常使用的概念(运算),比如两个向量内积为零表明这两个向量在几何空间中相互垂直。

长度:向量长度||v||定义为向量和自身求内积开平方: \sqrt{v\cdot v}, 在二维空间对这个定义很好理解:2维空间中的向量分量v1=x,v2=y,向量v=(x,y)的长度等于从原点(0,0) 到(x,y)的距离,由勾股定理知道这个距离=\sqrt{x^2+y^2}=\sqrt{v\cdot v},很容易推论到高纬空间中的向量距离||v|| = \sqrt{v\cdot v}。由向量长度的定义理解到向量的内积包含了向量的几何长度信息在里面。

我们定义长度为1的向量为单位向量,u=v/||v||。

通过单位向量我们可以推出两个向量的夹角\Theta的计算公式:

        \cos \Theta = \frac{v\cdot w}{||v|| |||w|}

上面公式推导的过程其实很简单,还是在2维空间中推导,假设2维空间中的两个单位向量与x轴的夹角为\alpha\beta,两个向量之间的夹角为\Theta,那么\Theta = \beta -\alpha 的,假设(\beta>\alpha)以保证我们求得的夹角为正,那么这两个向量分别是(\cos \beta ,\sin \beta)和(\cos \alpha ,\sin \alpha),那么这两个向量的内积为\cos \beta \cos \alpha+\sin \beta \sin \alpha,有三角公式可知上式等于\cos(\beta -\alpha )即为\cos \Theta,讲两个普通向量转化为向量方向上的单位向量角度不会改变即推导出夹角\Theta的计算公式。

\Theta的计算公式出发,我们还可以得出以下几个结论:向量垂直内积为0,向量夹角大于90度内积小于0,向量夹角小于90度内积大于0,单位向量的内积在[-1,1]之间,以及两个重要的不等式:柯西-施瓦茨不等式(Cauchy-Schwarz-Buniakowsky inequality)和三角不等式:

        SCHWARZ INEQUALITY |v\cdot w|\leqslant ||v|| ||w||

        TRIANGLE INEQUALITY ||v+w|| \leqslant ||v||+||w||

矩阵A,线性方程组Ax =b 和它的解inv(A)b  

在线性代数中矩阵与向量来源于对线性方程组的表达,举例,有如下线性方程组:

        \begin{Bmatrix} x_{1}+0\cdot x_{2}+0\cdot x_{3}=b_{1}\\ -x_{1}+x_{2}+0\cdot x_{3}=b_{2}\\ 0*x_{1}-1\cdot x_{2}+x_{3}=b_{3} \end{Bmatrix}

将x1,x2,x3在方程组中的系数提取组成3个向量u=(1;-1;0),v=(0;1;-1),w=(0;0;1),方程组等式右边以向量b=(b1;b2;b3)表示,3个未知数x1,x2,x3表示成未知数向量x=(x1;x2;x3),那么上面的线性方程组可以改写成如下向量线性组合的形式:

        x_{1}u+x_{2}u+x_{3}w=b <=> x_{1}\begin{bmatrix} 1\\ -1\\ 0 \end{bmatrix}+x_{2}\begin{bmatrix} 0\\ 1\\ -1 \end{bmatrix}+x_{3}\begin{bmatrix} 0\\ 0\\ 1 \end{bmatrix}=\begin{bmatrix} b_{1}\\ b_{2}\\ b_{3} \end{bmatrix}

向量形式改写成矩阵乘法形式:

Ax =\begin{bmatrix} u & v & w \end{bmatrix}\begin{bmatrix} x_{1}\\ x_{2}\\ x_{3} \end{bmatrix}=\begin{bmatrix} b_{1}\\ b_{2}\\ b_{3} \end{bmatrix} <=>\begin{bmatrix} 1 & 0 & 0\\ -1& 1 & 0\\ 0& -1 & 1 \end{bmatrix}\begin{bmatrix} x_{1}\\ x_{2}\\ x_{3} \end{bmatrix}=\begin{bmatrix} b_{1}\\ b_{2}\\ b_{3} \end{bmatrix}

A是系数线性方程组的系数矩阵,x是未知数组成的向量,b也是一个向量,所以线性方程组可以写成Ax=b的形式,线性代数的核心问题就是求解Ax=b。 从上面的改写过程可以看书求解Ax=b就是找到一个合适的x向量使得通过u,v,w的线性组合x1u+x2v+x3w的结果为b向量,这是线性代数很重要的一个思想:求解线性方程组就是找到系数矩阵列向量合适的线性组合,使得线性组合的结果等于向量b。

这里还要引出另外一个矩阵A的逆矩阵,表示为A^{-1}或inv(A),方程组Ax=b的解为x=A^{-1}b, AA^{-1}=I,I是单位阵。关于逆矩阵的知识Strang教授会在后面的课程相信介绍,这里对Ax=b的讨论线性代数课程内容的一个引入。

        

猜你喜欢

转载自blog.csdn.net/wanhongluli/article/details/82765040