摘要:
代表的是迭代的次数,如果过少会欠拟合,反之过多会过拟合 EPOCHS 当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一个 epoch。 然而,当一个 epoch 对于计算机而言太庞大的时候,就需要把它分成多个小块。 为什么要使用多于一个 epoch? 我知道这刚开始听起来会很奇怪, 阅读全文
posted @ 2018-05-16 16:31
笨蛋敏
阅读(10829)
评论(0)
推荐(0)
摘要:
Batch_Size(批尺寸)是机器学习中一个重要参数,涉及诸多矛盾,下面逐一展开。 首先,为什么需要有 Batch_Size 这个参数? Batch 的选择,首先决定的是下降的方向。如果数据集比较小,完全可以采用全数据集 ( Full Batch Learning )的形式,这样做至少有 2 个好 阅读全文
posted @ 2018-05-16 16:24
笨蛋敏
阅读(5813)
评论(0)
推荐(0)

浙公网安备 33010602011771号