神经网络中的 batch_size、epochs、iteration

这三个概念是基于梯度下降法而言的。

1 batch_size

  batch_size 就是批量大小,即一次训练中所使用的样本个数。

  batch_size 的选择是为了在内存效率和内存容量之间寻找最佳平衡,将影响到模型的优化程度和速度。

   适当的增加Batch_Size,梯度下降方向准确度增加,训练震动的幅度减小。还可以通过并行化提高内存利用率。

2 epochs

  一个 epoch 指用训练集中的全部样本训练一次,当一个epoch对于计算机而言太庞大的时候,就需要把它分成多个小块,epoch 由一个或多个 batch 组成。

  随着epoch数量增加,神经网络中的权重的更新次数也在增加,曲线从欠拟合变得过拟合。

3 iteration

  一个 iteration 即迭代一次,也就是用 batch_size 个样本训练一次。

 

posted @ 2020-07-31 00:15  sun-a  阅读(911)  评论(0编辑  收藏  举报