会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
acmloser
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
···
75
下一页
2023年6月4日
选修-5-Logistic Regression
摘要: # 1. 逻辑回归 下面是这位大佬的[Click](https://blog.csdn.net/weixin_44406200/article/details/104288916).逻辑回归是用于分类的算法,它是在线性回归的基础上添加了一层映射. 
评论(0)
推荐(0)
2023年6月2日
选修-3-Gradient Descent
摘要: [Click](https://blog.csdn.net/qq_38689352/article/details/114783092) # 1. Review:梯度下降法 我们建立一个模型,需要为这个模型找到一组参数,这个参数可以最小化$Loss$.我们使用梯度下降法来找到这个参数.注意,下图的$
阅读全文
posted @ 2023-06-02 22:26 acmloser
阅读(73)
评论(0)
推荐(0)
选修-2-Where does the error come from?
摘要: [CLICK](https://blog.csdn.net/qq_38689352/article/details/114776396),这个写得更好. # 1. Error的来源 error实际来源于`bias`和`variance`. 
评论(0)
推荐(0)
2023年5月25日
选修-1-预测宝可梦与分类宝可梦-李宏毅
摘要: 个人建议看这个[Click](https://blog.csdn.net/qq_38689352/article/details/114820223)和这个[Click](https://github.com/Sakura-gh/ML-notes/blob/master/ML-notes-md/6_
阅读全文
posted @ 2023-05-25 17:33 acmloser
阅读(238)
评论(0)
推荐(0)
2023年5月21日
1.Introduction of Deep Learning - 李宏毅
摘要: 先附上链接,看过吴恩达的感觉很多没必要复述了. [this](https://zhuanlan.zhihu.com/p/338627175) 和 [that](https://zhuanlan.zhihu.com/p/395471141) * `hyperparameter`:超参数,需要自己设定的
阅读全文
posted @ 2023-05-21 23:58 acmloser
阅读(93)
评论(0)
推荐(0)
2023年2月28日
机器学习 吴恩达 第十七章 笔记
摘要: # 十七、应用实例:图片文字识别(Application Example: Photo OCR) ## 17.1 问题描述和OCR 照片OCR实际是照片光学字符识别.图像文字识别应用所作的事是,从一张给定的图片中识别文字.这比从一份扫描文档中识别文字要复杂的多. 
评论(0)
推荐(0)
机器学习 吴恩达 第十六章 笔记
摘要: # 十六、大规模机器学习(Large Scale Machine Learning) ## 16.1 大型数据集的学习 如果我们有一个低偏差的模型,增加数据集的规模可以帮助你获得更好的结果.但是,大部分大数据集学习都有一个计算问题. 以线性回归模型为例,假如我们有一亿样本,每一次梯度下降迭代,我们都
阅读全文
posted @ 2023-02-28 01:32 acmloser
阅读(39)
评论(0)
推荐(0)
2023年2月25日
机器学习 吴恩达 第十五章 笔记
摘要: # 十五、推荐系统(Recommender Systems) ## 15.1 问题形式化 我们从一个例子开始定义推荐系统的问题: 假使我们是一个电影供应商,我们有 5 部电影和 4 个用户,我们要求用户为电影打分. 
评论(0)
推荐(0)
2023年2月24日
机器学习 吴恩达 第十四章 笔记
摘要: # 十四、异常检测(Anomaly Detection) ## 14.1 问题的动机 在接下来的小节里,我将大家介绍异常检测(Anomaly detection)问题.这是机器学习算法的一个常见应用.这种算法的一个有趣之处在于:它虽然主要用于非监督学习问题,但从某些角度看,它又类似于一些监督学习问题
阅读全文
posted @ 2023-02-24 11:52 acmloser
阅读(46)
评论(0)
推荐(0)
2023年2月18日
机器学习 吴恩达 第十三章 笔记
摘要: # 十三、降维(Dimensionality Reduction) ## 13.1 目标一:数据压缩 本节讨论第二类无监督学习问题,降维.有几个不同的的原因使你可能想要做降维,一是数据压缩.数据压缩不仅允许我们压缩数据,从而使用较少的计算机内存或磁盘空间,它也让我们加快我们的学习算法. 那么,什么是
阅读全文
posted @ 2023-02-18 22:22 acmloser
阅读(64)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
···
75
下一页
公告