batchsize、iteration、epoch之间的关系

batchsize、iteration、epoch之间的关系

有的时候总是会弄错batchsize、iteration、epoch之间的关系,现在终于明白了。
1、batchsize是批次大小,假如取batchsize=24,则表示每次训练时在训练集中取24个训练样本进行训练。
2、iteration是迭代次数,1个iteration就等于一次使用24(batchsize大小)个样本进行训练。
3、epoch,1个epoch就等于一次使用训练集中全部样本训练一次。
如果训练样本为1000,batchsize=24,则训练一个完整的样本集需要1个epoch,需要迭代50(1000/24=50)次。

如有疑问,欢迎大家一起讨论

主要是记录一下自己平时遇到的问题,和大家分享一下
如有侵犯,请联系我

点个赞支持一下吧

おすすめ

転載: blog.csdn.net/Anne332/article/details/121773716