摘要:
AdaGrad 阅读全文
posted @ 2019-07-23 15:11
澄轶(程毅)
阅读(537)
评论(0)
推荐(0)
摘要:
Optimizer SGD Momentum Nesterov(牛顿动量) 二.自适应参数的优化算法 这类算法最大的特点就是,每个参数有不同的学习率,在整个学习过程中自动适应这些学习率。 AdaGrad RMSProp Adam 二阶近似的优化算法 牛顿法 共轭梯度法 BFGS LBFGS 阅读全文
posted @ 2019-07-23 14:39
澄轶(程毅)
阅读(1331)
评论(0)
推荐(0)

浙公网安备 33010602011771号