会员
众包
新闻
博问
AI培训
云市场
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
奇迹不是因果的积累,而是宿命的选择
博客园
首页
新随笔
联系
订阅
管理
2016年4月3日
UFLDL_自学笔记#2
摘要: 前面已经引入了神经网络的概念后,这节开始,我们学习一个新的概念,叫做 反向传导算法。 假设我们有一个固定样本集 ,它包含 个样例。我们可以用批量梯度下降法来求解神经网络。具体来讲,对于单个样例 ,其代价函数为: 这是一个(二分之一的)方差代价函数。给定一个包含 个样例的数据集,我们可以定义整体代价函
阅读全文
posted @ 2016-04-03 10:20 西瓜书?蓝皮书?
阅读(211)
评论(0)
推荐(0)
编辑
公告