五分钟读完一篇文章之张量

在数学里,张量(Tensor)是一种“几何实体”,拥有“不依赖于参照系选择”的满足一切物理定律必须与基选择无关的特性,也就是说同一个张量用不同的基来表示是完全不同的(某种意义上)。e.g.二维欧式空间中的点是几何的,但是要用x、y两个坐标系(基)来表示,那二阶张量便与矩阵(代数)对应起来,同理三维欧式空间中的点也是如此。

百度百科中张量的定义
张量是在一些向量空间和一些对偶空间的笛卡儿积上的多重线性映射,其坐标是N维空间内,有N个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。r称为该张量的秩或阶(与矩阵的秩和阶无关,且注意与“维”分开)。

一般情况下,我们可以认为:张量表⽰⼀个数值组成的数组,这个数组可能有多个维度。
而在同构(isomorphism,一个保持结构的双射)的意义下:

张量阶数r 数学表示 e.g.
0 标量(Scalar,只有大小、没有方向) f0=123456
1 向量“矢量”(Vector,既有大小、又有方向) f1=[1,2,3,4,5,6]
2 二维数组“矩阵”(Matrix) f2=[[1,2,3],[4,5,6]]
3 三维数组"多个矩阵" f3=[[[1],[2],[3]],[[4],[5],[6]]]
N

简单来说:张量是矢量概念的推广,可用来表示在一些标量、矢量、矩阵和其他张量之间的线性关系的多线性函数,为我们提供了描述具有任意数量轴的n维数组的通用方法。

机器学习中的张量
在机器学习中张量可以理解为一个数据的容器,一般指代一个多维数组(Multidimensional Array),其主要目的是创造更高维度的向量与矩阵(即“Tensor类型”的对象)以满足相应的计算需求,e.g.常见的RGB三通道的图像数据。

总结
现阶段暂未找到较权威的介绍张量的文章,读者可以先以上述的介绍进行理解,如有错误欢迎指正。

猜你喜欢

转载自blog.csdn.net/weixin_41006390/article/details/106308315