Pytorch:tensor的运算

一、tensor操作

1. 新建
A、torch.Tensor(shape)/torch.FloatTensor(shape):随机初始化一个维度为shape的张量。
在这里插入图片描述
B、torch.randn(shape):用均值为0,方差为1的高斯分布初始化一个shape的张量。
在这里插入图片描述
C、torch.rand(shape):在区间[0,1]上均匀分布,初始化一个shape的张量。
在这里插入图片描述
2、Tensor的变换
A、view / reshape
两个用法差不多,都是用来改变一个张量的数据分布。
在这里插入图片描述
注:(2,-1)中的-1会自动计算剩下的维度。
B、squeeze / unsqueeze
第一个是用来压缩维度为1的张量,如(6,1,32,32).squeeze()之后就变为(6,32,32);第二个是用来增加一个维度。具体看实例如下:
在这里插入图片描述
注:squeeze中不带参数,是将所有维度为1的地方去掉,带参数是去指定维度为1的地方,若指定的维度不为1,则不变。
在这里插入图片描述
注:在指定的维度上插入一个大小为1的新维度。
C、expand / repeat
这两个都是进行数据的扩充操作,第一个是扩充到指定的维度大小,第二个函数的参数维度上扩充的倍数。一般结合上面2.B中的函数使用。
在这里插入图片描述
D、 t / transpose / permute
这三个函数用来数据维度之间的调整,第一个只能用于2D。
在这里插入图片描述
E、broadcasting机制
相当于自动完成了unsqueeze+expand的操作,但是相比节省内存空间。
在这里插入图片描述
通过broadcasting机制,张量可以直接和标量进行相加。

发布了29 篇原创文章 · 获赞 120 · 访问量 6万+

猜你喜欢

转载自blog.csdn.net/qq_21578849/article/details/87966432