摘要: SGD:随机梯度下降在每次更新的时候,只考虑了一个样本点,这样会大大加快训练数据,也恰好是批梯度下降的缺点,因为不一定每次都朝着梯度... 阅读全文
posted @ 2020-05-10 23:49 code_witness 阅读(165) 评论(0) 推荐(0)