摘要: 代表的是迭代的次数,如果过少会欠拟合,反之过多会过拟合 EPOCHS 当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一个 epoch。 然而,当一个 epoch 对于计算机而言太庞大的时候,就需要把它分成多个小块。 为什么要使用多于一个 epoch? 我知道这刚开始听起来会很奇怪, 阅读全文
posted @ 2018-05-16 16:31 笨蛋敏 阅读(10829) 评论(0) 推荐(0)
摘要: Batch_Size(批尺寸)是机器学习中一个重要参数,涉及诸多矛盾,下面逐一展开。 首先,为什么需要有 Batch_Size 这个参数? Batch 的选择,首先决定的是下降的方向。如果数据集比较小,完全可以采用全数据集 ( Full Batch Learning )的形式,这样做至少有 2 个好 阅读全文
posted @ 2018-05-16 16:24 笨蛋敏 阅读(5813) 评论(0) 推荐(0)