摘要: 在模型的训练过程中,如果epoch设置过少,网络有可能发生欠拟合;如果epoch设置过多,网络可能发生过拟合。 早停法旨在解决epoch数量需要手动设置的问题。它也可以被视为一种能够避免网络发生过拟合的正则化方法(与L1/L2权重衰减和丢弃法类似)。 根本原因就是因为继续训练会导致测试集上的准确率下 阅读全文
posted @ 2021-12-02 10:34 Liang-ml 阅读(1077) 评论(0) 推荐(0)