会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
大强广坤
博客园
首页
新随笔
联系
管理
订阅
上一页
1
2
3
4
5
6
7
8
···
11
下一页
2019年10月21日
Matplotlib中plt.rcParams用法(设置图像细节)
摘要: https://www.cnblogs.com/douzujun/p/10327963.html
阅读全文
posted @ 2019-10-21 21:34 大强广坤
阅读(459)
评论(0)
推荐(0)
2019年10月18日
机器学习中的梯度消失、爆炸原因及其解决方法
摘要: https://blog.csdn.net/qq_25737169/article/details/78847691
阅读全文
posted @ 2019-10-18 21:19 大强广坤
阅读(154)
评论(0)
推荐(0)
2019年10月16日
Numpy 中的矩阵向量乘法(三个)
摘要: https://blog.csdn.net/itnerd/article/details/83444867
阅读全文
posted @ 2019-10-16 12:18 大强广坤
阅读(1592)
评论(0)
推荐(0)
2019年10月14日
机器学习中的范数正则化以及L2范数推导
摘要: https://www.cnblogs.com/RyanXing/p/10778654.html https://blog.csdn.net/u010725283/article/details/79212762
阅读全文
posted @ 2019-10-14 20:33 大强广坤
阅读(281)
评论(0)
推荐(0)
2019年10月9日
深度学习中的batch、epoch、iteration的含义
摘要: 深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下
阅读全文
posted @ 2019-10-09 11:06 大强广坤
阅读(548)
评论(1)
推荐(0)
2019年9月29日
吴恩达机器学习作业Python实现(七):K-means和PCA主成分分析
摘要: https://blog.csdn.net/Cowry5/article/details/80503380
阅读全文
posted @ 2019-09-29 11:19 大强广坤
阅读(397)
评论(0)
推荐(0)
2019年9月27日
吴恩达第七章垃圾邮件分类
摘要: http://blog.sina.com.cn/s/blog_12cb691530102v2x4.html
阅读全文
posted @ 2019-09-27 12:30 大强广坤
阅读(346)
评论(0)
推荐(0)
2019年9月25日
Week4_1Neural Networks Representation
摘要: https://blog.csdn.net/wangcong02345/article/details/79367377#%E7%AC%AC-5-%E9%A2%98
阅读全文
posted @ 2019-09-25 12:19 大强广坤
阅读(122)
评论(0)
推荐(0)
2019年9月24日
吴恩达逻辑回归题目详解
摘要: https://blog.csdn.net/qq_43211132/article/details/88287766
阅读全文
posted @ 2019-09-24 21:01 大强广坤
阅读(244)
评论(0)
推荐(0)
2019年9月23日
丢弃正则化
摘要: https://blog.csdn.net/u012328159/article/details/80210363
阅读全文
posted @ 2019-09-23 11:30 大强广坤
阅读(104)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
···
11
下一页
公告