会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
CrescentTing
博客园
首页
新随笔
联系
管理
订阅
上一页
1
2
3
2020年4月3日
都是基于梯度下降的逻辑回归与神经网络有什么区别?(逻辑回归参数更新和神经网络反向传播)
摘要: 最近在刷吴恩达的coursea的机器学习视频,学完基于梯度下降的逻辑回归和基于梯度下降的神经网络后,就在反思这两者之间的区别,为什么必须使用神经网络? 逻辑回归不能替代神经网络么?他们的区别是什么呢? 答案:逻辑回归不能替代神经网络。 机器学习的本质其实是训练出一组参数,尽可能让基于这组参数的模型能
阅读全文
posted @ 2020-04-03 12:17 CrescentTing
阅读(1250)
评论(2)
推荐(0)
2018年11月22日
CNN 细节一 batch和epoch以及找最小loss值的关系 Batch size选取
摘要: 半路出家,一直没搞懂CNN底层运行关系,现在才慢慢清楚点 例子是出其理论学习者最好的帮手,So,我来个example Example: 15000个样本,我们训练模型的目的是找一组参数,使得该参数对应的模型能最大可能地符合所有样本的值 (1)其实是根据loss function做梯度下降进行寻找能使
阅读全文
posted @ 2018-11-22 07:13 CrescentTing
阅读(5448)
评论(0)
推荐(0)
上一页
1
2
3
公告