摘要: AdaGrad 阅读全文
posted @ 2019-07-23 15:11 苏轶然 阅读(488) 评论(0) 推荐(0) 编辑
摘要: Optimizer SGD Momentum Nesterov(牛顿动量) 二.自适应参数的优化算法 这类算法最大的特点就是,每个参数有不同的学习率,在整个学习过程中自动适应这些学习率。 AdaGrad RMSProp Adam 二阶近似的优化算法 牛顿法 共轭梯度法 BFGS LBFGS 阅读全文
posted @ 2019-07-23 14:39 苏轶然 阅读(1175) 评论(0) 推荐(0) 编辑