会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Python少年
联系
管理
订阅
09 2018 档案
Mini-Batch 、Momentum、Adam算法的实现
摘要:Mini-Batch 1. 把训练集打乱,但是X和Y依旧是一一对应的 2.创建迷你分支数据集 Momentum 1初始化 2动量更新参数 Adam Adam算法是训练神经网络中最有效的算法之一,它是RMSProp算法与Momentum算法的结合体。 1.初始化参数 2.Adam算法实现 def up
阅读全文
posted @
2018-09-17 11:17
Python少年
阅读(6707)
评论(0)
推荐(0)