动手学深度学习小记

1.mx.nd.NDArray()

在神经网络中,我们有三种类别的数据:

  • 样本数据(输入 和 label)
  • 网络模型参数
  • 网络中每层的输入 数据

在 mxnet/Gluon 中,这三种类别的数据都是由 mx.nd.NDArray 来存储的。

但是需要注意的是:

模型参数记得 NDArray.attach_grad(), 因为模型参数更新的时候需要用到 梯度,attach_grad() 就是为参数梯度的存放开辟了空间,以助于参数更新的时候进行访问
不需要显式访问梯度的 NDArray 是不需要 attach_grad() 的
链接:https://blog.csdn.net/u012436149/article/details/78047278/

2.train_data=gluon.data.DataLoader() #把数据整体封装起来

class mxnet.gluon.data.DataLoader(dataset,batch_size = None,shuffle = False,sampler = None,last_batch = None,batch_sampler = None,batchify_fn = None,num_workers = 0 )参数理解

  • dataset(数据集) - 源数据集。请注意,numpy和mxnet数组可以直接用作数据集。
  • batch_size(int) - 最小批量的大小。
  • shuffle(bool) - 是否洗牌。
  • sample采样器) - 要使用的采样器。指定采样器或混洗,而不是两者。
  • last_batch({'keep' ,'discard' ,'rollover'}) -

    如果batch_size不能均匀分配len(数据集),如何处理最后一批 。

    keep - 返回比前一批次样品少的批次。discard - 如果最后一批不完整,则丢弃最后一批。rollover - 剩余的样本将转入下一个时间段。

  • batch_sampler(采样器) - 返回小批量的采样器。如果指定了batch_sampler,则不要指定batch_size,shuffle,sampler和last_batch。
  • batchify_fn(可调用) -

    回调函数允许用户指定如何将样本合并到批处理中。默认为default_batchify_f

    num_workers(int ,默认值为0) - 用于数据预处理的多处理工作器的数量。 Windows尚未支持num_workers> 0。

    (3)class mxnet.gluon.data.vision.datasets.MNIST(root ='〜/ .mxnet / datasets / mnist',train = True,transform = None )

 链接:https://blog.csdn.net/bycare/article/details/80048213

3.numpy中把向量/vector转化为标量/scalar

import numpy as np

vec = np.array([1]) #=> [1] 向量

scal = np.asscalar(vec)#=> 1 标量

4.attach.grad()

  • 模型参数记得 NDArray.attach_grad(), 因为模型参数更新的时候需要用到 梯度,attach_grad() 就是为参数梯度的存放开辟了空间,以助于参数更新的时候进行访问
  • autograd.record(): # 使用 autograd 来记录计算图
  • 参考链接:https://blog.csdn.net/u012436149/article/details/78047278/

猜你喜欢

转载自blog.csdn.net/qq_36666756/article/details/83211155