batch 、batch size、epoch、 iteration

前言
在刚接触模型的训练的时候,我发现了几个挺有意思的变量,batch 、batch size、epoch、 iteration
下面说说自己的理解:
(1)batch:是指将数据集分成若干个批次,每个批次包含一定数量的样本,然后使用这些批次来训练模型
(2)batch size则是指每个批次中样本的数量。通常情况下,batch size越大,模型的训练速度就越快,但是也会增加内存消耗。此外,batch size还会影响到模型的收敛速度和精度
(3)epoch:1个epoch等于将训练集中的全部样本训练一次,在一个epoch中,模型会对整个数据集进行一次前向传播和反向传播,更新所有的参数。
(4)iteration:1个iteration等于使用batch size个样本训练一次

猜你喜欢

转载自blog.csdn.net/weixin_44598554/article/details/133127629
今日推荐