解读Tensor张量的维数

学习Pytorch就免不了和张量碰面,但这个高维张量并不明白,所以找了相关资料了解了一下

维度要看张量的最左边有多少个左中括号,有n个,则这个张量就是n维张量。

张量的形状以  [D0, D1, … Dn-1]  的形式表示,D0 到Dn 是任意的正整数。

如形状[3,4]表示第一维有3个元素,第二维有4个元素,[3,4]表示一个3行4列的矩阵。

在形状的中括号中有多少个数字,就代表这个张量是多少维的张量。

形状的第一个元素要看张量最外边的中括号中有几个元素(被最外边的中括号里边的内中括号括起来的所有数据算作一个元素)被逗号隔开,有n1个则这个张量就是n1维的,形状的第一个元素就是n1;
形状的第二个元素要看张量中最左边的第二个中括号中有几个被逗号隔开的元素,有n2个则shape的第二个元素就是n2;形状的第二个元素之后的第3,4…n个元素依次类推,分别看第n个中括号中有几个元素即可:

1 # 形状为[],零维

[1,2,3] # 形状为[3],一维

[[1,2],[3,4]] # 形状为[2,2],二维

[[[1,2],[3,4]],[[1,2],[3,4]]] # 形状为[2,2,2],三维

发布了302 篇原创文章 · 获赞 161 · 访问量 49万+

猜你喜欢

转载自blog.csdn.net/qq_32146369/article/details/102097676
今日推荐