• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
返回主页

山上有风景

周围的人都比你厉害,你才会慢慢变强

  • 博客园
  • 首页
  • 新随笔
  • 联系
  • 订阅
  • 管理

深度学习---优化算法

一:机器学习中的常见优化算法回顾

机器学习基础---大规模机器学习

随机梯度下降法
Mini-Batch梯度下降
随机梯度下降收敛

二:吴恩达深度学习笔记

http://www.ai-start.com/dl2017/html/lesson2-week2.html

2.1 Mini-batch 梯度下降(Mini-batch gradient descent)

2.2 理解mini-batch梯度下降法(Understanding mini-batch gradient descent)

2.3 指数加权平均数(Exponentially weighted averages)

通俗理解指数加权平均(补充)

2.4 理解指数加权平均数(Understanding exponentially weighted averages)

2.5 指数加权平均的偏差修正(Bias correction in exponentially weighted averages)

2.6 动量梯度下降法(Gradient descent with Momentum)

参数更新时在一定程度上保留之前更新的方向,同时又利用当前batch的梯度微调最终的更新方向,简言之就是通过积累之前的动量来加速当前的梯度。

2.7 RMSprop

2.8 Adam 优化算法(Adam optimization algorithm)

2.9 学习率衰减(Learning rate decay)

2.10 局部最优的问题(The problem of local optima)

三:深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)

https://www.yuque.com/yahei/hey-yahei/optimizer(比标题三更好,值得一看)

posted @ 2020-09-22 22:03  山上有风景  阅读(250)  评论(0)    收藏  举报
刷新页面返回顶部

公告

博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3