会员
周边
新闻
博问
AI培训
云市场
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
正在学习的小pobby
博客园
首页
联系
订阅
管理
2020年5月25日
【NLP】常用优化方法
摘要: 目录 梯度下降法 动量法 AdaGrad算法 RMSProP算法 AdaDelta算法 Adam算法 1.梯度下降法 梯度下降法可以分为三种,批量梯度下降法(BGD)、小批量梯度下降(MBGD)、随机梯度下降法(SGD),这三种方法是优化时对数据所采取的的策略,但所运用的思想是一致的,都是梯度下降,
阅读全文
posted @ 2020-05-25 16:32 正在学习的小pobby
阅读(661)
评论(0)
推荐(0)
编辑
公告