深度学习中的epoch、batchsize、iterations的理解

  • Epoch:一个epoch就是将 所有的数据 放入神经网络中 完成一次前向计算及反向传播的过程。训练模型时通常会选择多个epoch,从而将所有的数据进行反复的训练,以达到拟合收敛的目的

  • Batch Size: 由于将所有的数据一次放入神经网络中,会给计算机带来较大的负荷,所以我们通常将所有的数据均分成几批,一批一批放入神经网络中,从而减少计算机的压力,每批数据量的大小就是Batch Size

  • iteration: 当我们进行一次epoch需要将数据分成 n 批 传送神经网络,这里 的 n 就是 迭代的次数,也就是iteration的大小

  • 举个具体的例子:假如我们有2000个数据,我们想要将数据分成四批依次传入到神经网络中,那么batch size == 500(就是每批数据量的大小),将所有的数据放入神经网络需要分四批传入,需要迭代四次,所以iterations == 4 ,将所有的数据放入神经网络训练一次后,我们就完成了一个epoch

  • 以上只是我个人的理解,如有错误,请批评指正,最后附上参考的链接:https://mp.weixin.qq.com/s/tEOvxPRPAPndNk3thT8EZA

posted @ 2021-03-09 15:06  一粒盐  阅读(528)  评论(0编辑  收藏  举报