steps_per_epoch 与 epochs 的关系

model.fit_generator(image_a_b_gen(batch_size), steps_per_epoch=1, epochs=1000)

拥有越高性能的GPU,则可以设置越大的batch_size值。根据现有硬件,我们设置了每批次输入50-100张图像。参数steps_per_epoch是通过把训练图像的数量除以批次大小得出的。例如,有100张图像且批次大小为50,则steps_per_epoch值为2。参数epoch决定网络中所有图像的训练次数。在Tesla K80 GPU上,大约需要11小时才能完成对1万张图像的21次训练。

在深度学习中,经常要设置以下几个数据:nEpoch , iteration , batchSIze:

batchSize 代表在做随机梯度下降时,使用批梯度的数量,即每次使用batchSize个数据来更新参数。

1个iteration等于使用batchSize个样本训练一次

1个nEpoch等于使用所有样本训练一次

举个例子,训练集有1000个样本,batchsize=10,那么:
训练完整个样本集需要:
100次iteration  为1次epoch。

简单说 epochs=1 就是完整训练整个样本1次,epochs=2 就是完整训练整个样本2次


原文:https://blog.csdn.net/qq_18293213/article/details/62911888 
 

猜你喜欢

转载自blog.csdn.net/hellocsz/article/details/88992039