机器学习中的数学基础(2)——理解基、线性组合与向量空间

https://www.toutiao.com/a6668922466275951118/

这是《机器学习中的数学基础》系列的第2篇。

  • 铺垫

在介绍各种“高大上”的名词之前,我们先来看下向量的几何意义。现在有一个2维向量w=(2,1),把它画在坐标轴上就是这个样子的:

机器学习中的数学基础(2)——理解基、线性组合与向量空间

我们可以把它看成是从原点(0,0)出发,终点是(2,1)的一段路径或者一个箭头,也可以把向量w抽象为1个点(因为所有的向量都是从原点出发,可以忽略掉路径),这个点的坐标(2,1)就是它的向量坐标。

接下来我们来看向量加法,用公式表示是这样子的:

机器学习中的数学基础(2)——理解基、线性组合与向量空间

就是把两个向量对应的元素相加,很容易理解,对吧。那向量加法的几何意义是什么呢?假设另一个向量y=(1,-2),我们把w+y画在坐标轴上:

机器学习中的数学基础(2)——理解基、线性组合与向量空间

这次我们用动态的观点来看w+y:首先我们进行向量w的运动,从O点跑到A点;再进行向量y的运动,从A点跑到D点(我们把向量y从OB平移到了AD),最后向量OD就是w+y的结果了。

思路是有了,那到底该怎么计算呢?我们把wy的运动分解成水平方向的运动和垂直方向的运动。那从水平方向上看,w运动了2,y运动了1,一共运动了2+1=3;从垂直方向看,w运动了1,y运动了-2,一共运动了1-2=-1.所以D点的坐标就是(3,-1)。

加法搞定之后,我们再来看乘法。确切地说,是数乘。啥意思呢?就是向量和一个数相乘。我们还是以向量w为例,来看看2w和1/2w的几何含义:

机器学习中的数学基础(2)——理解基、线性组合与向量空间

可以看到,2w就是沿着w的方向把它拉伸了2倍,而1/2w就是沿着w的方向把它压缩了一半。

  • 精彩的部分来了

有了上面长长的铺垫,神奇的一幕马上就要发生了!我将用一个公式来理清基、线性组合和向量空间这三个概念。

在此之前,让我们先平复一下心情,再回过头来看看向量w(2,1)

机器学习中的数学基础(2)——理解基、线性组合与向量空间

现在,需要一个思维跳跃,我们把w也看成是两个向量的和。是哪两个向量的和呢?从上图中可以看出,w可以被认为先水平运动2个单位,再垂直运动1个单位。所以w是水平方向的向量2i和垂直方向的向量j的和。其中,向量i=(1,0),向量j=(0,1)。因此,w可以表示为:

机器学习中的数学基础(2)——理解基、线性组合与向量空间

我们把ij就叫做构成平面的一组基(可以看出,任意向量都可以由ij构造)。而2i+j就叫做ij的一种线性组合。为了更加一般化,我们把ij的系数分别设为a和b(a、b可取任意值),那么ai+bj就被叫做ij的线性组合。从几何上说,ai+bj所张成(形成)的空间就叫做向量空间,也叫做线性空间。对于二维向量来说,所形成的向量空间就是整个平面。

以上就是全部内容,你都看明白了吗?有不清楚的地方可以及时评论哦。

猜你喜欢

转载自blog.csdn.net/weixin_42137700/article/details/88623197