机器学习数学篇--线性代数

嗑就不唠了,直接上内容,可以参考之前的文章:
https://xiaozhuanlan.com/topic/2981350467

目录

线性代数:

  1. 标量
  2. 向量
  3. 矩阵
  4. 张量
  5. 集合
  6. 范数
  7. 内积
  8. 向量正交

1.标量

单独的数 b 构成的元素被称为标量:一个标量 b 可以是整数, 实数

2.向量

多个标量 b1,b2,⋯,bn按一定顺序组成一个序列,这样的元素就被称为向量,既有大小又有方向。向量可以看作标量的延伸。原始的一个数被替代为一组数,从而带来了维度的增加,根据下标可以唯一地确定向量中的元素。

3.矩阵

每个向量都由若干标量构成,如果将向量的所有标量都替换成相同规格的向量,得到的就是矩阵。相对于向量,矩阵同样代表了维度的增加,矩阵中的每个元素需要使用两个索引确定,横向一个索引,纵向一个。

4.张量

将矩阵中的每个标量元素再替换为向量的话,得到的就是张量。直观地理解,张量就是高阶的矩阵。

好,现在我们来总结一下它们的关系:
多个标量组成向量,多个向量组成矩阵,多个矩阵组成张量。
把它们比作魔方很容易理解,如下图所示,魔方中一个方格代表标量,三个方格组成一条代表向量,三条方格组成一个平面代表一个矩阵,六个平面组成一个立体的魔方代表一个张量:

上图可以看作是向量

上图可以看作是矩阵

上图可以看作是张量

在计算机存储中,标量占据的是零维数组;向量占据的是一维数组,如语音数据;矩阵占据的是二维数组,如灰度图像;张量占据的是三维乃至更高维度的数组,如 RGB 图像。

5.集合

集合是由某些特定对象汇总而成的集体。集合中的元素通常会具有某些共性,因而可以用这些共性来表示。

6.范数

范数是对单个向量大小的度量,描述的是向量自身的性质,其作用是将向量映射为一个非负的数值。
通用的 Lp 范数定义:
|x|_p=(∑_i|x_i|^p)^{\frac1p}
某个确定的向量,L1 范数计算的是向量所有元素绝对值的和,L2 范数计算的是通常意义上的向量长度,L∞范数计算的则是向量中最大元素的取值。

7.内积

内积计算的是两个向量之间的关系,对应元素乘积的求和。通过计算向量之间的夹角,内积能够表示两个向量之间的相对位置。公式如下:
(x,y)=\sum_ix_iy_i
这个还是很有用的,夹角越小,说明这两个向量可能会相似。

8.向量正交

结合上面的内积,特殊的情况是内积为 0,即 (x,y)=0。在二维空间上,这意味着两个向量的夹角为 90 度,即相互垂直。而在高维空间上,这种关系被称为正交。如果两个向量正交,说明他们线性无关,相互独立。
同学们可以想一下,在一个二分类问题中,如果证明不出“是”,那我们可以证“否”啊,如果两个向量正交,那就可以确定为“否”,减少干扰项。

总结:

上面大部分讲了向量,可能有同学联想不太深入,换个理解,把向量都看作是特征,正交,范数和内积能够处理这些特征,提取出它们的隐含关系。
介绍了标量,向量,矩阵,张量之间的关系,通过模仿来加强记忆。L1范数是计算向量的绝对值和和L2范数计算向量长度,内积能够表示两个向量的相对位置。

猜你喜欢

转载自blog.csdn.net/sqc3375177/article/details/79100165