会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
哈哈哈喽喽喽
博客园
首页
新随笔
联系
订阅
管理
2021年5月8日
优化方法-momentum动量法和Adam
摘要: 优化 在一个深度学习问题中,我们通常会预先定义一个损失函数。有了损失函数以后,我们就可以使用优化算法试图将其最小化。在优化中,这样的损失函数通常被称作优化问题的目标函数(objective function)。依据惯例,优化算法通常只考虑最小化目标函数。其实,任何最大化问题都可以很容易地转化为最小化
阅读全文
posted @ 2021-05-08 11:41 哈哈哈喽喽喽
阅读(572)
评论(0)
推荐(0)
公告