4.4.1 训练误差和泛化误差
介绍一种正则化的方法叫做早停法。其实很简单,就是训练的轮数越多,训练误差肯定会单调下降,但是验证误差是一个凹函数,我们停在测试误差的极值点就好了。注意运用早停法的话就不要用其他正则化方法了,所以早停法有个缺点就是训练误差可能比较大,优点就是需要的计算资源比较少,因为超参数少了
介绍一种正则化的方法叫做早停法。其实很简单,就是训练的轮数越多,训练误差肯定会单调下降,但是验证误差是一个凹函数,我们停在测试误差的极值点就好了。注意运用早停法的话就不要用其他正则化方法了,所以早停法有个缺点就是训练误差可能比较大,优点就是需要的计算资源比较少,因为超参数少了