会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
士不可不弘毅
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
2019年11月13日
关于深度学习之中Batch Size的一点理解(待更新)
摘要: batch 概念:训练时候一批一批的进行正向推导和反向传播。一批计算一次loss mini batch:不去计算这个batch下所有的iter,仅计算一部分iter的loss平均值代替所有的。 以下来源:知乎 作者:陈志远 链接:https://zhuanlan.zhihu.com/p/836260
阅读全文
posted @ 2019-11-13 17:32 洪山鸟王
阅读(3035)
评论(0)
推荐(0)
上一页
1
2
公告