会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
给未来的自己
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
···
17
下一页
2017年4月9日
机器学习公开课笔记第五周之优化机器学习算法
摘要: 一,提高机器学习算法准确度的方法 当我们的机器学习算法不能准确预测我们测试数据时,我们可以尝试通过以下方法提高我们机器学习的算法准确度 1),获得更多的训练样例 2),减少特征数 3),增加特征数 4),增加多项式特征 5),增大或减小\(\lambda\) 二,评估机器学习模型 如果只是单独的使用
阅读全文
posted @ 2017-04-09 17:30 蚀
阅读(253)
评论(0)
推荐(0)
2017年3月28日
机器学习公开课笔记第四周,神经网络
摘要: 当我们用非线性假设函数n元k次方程表达逻辑回归特征值,我们的算法的效率将是\( O\left ( n^{k} \right ) \) 当特征数n和k过大时,逻辑回归的算法效率将会非常低,神经网络算法就是为了解决非线性逻辑回归算法而诞生的 神经网络算法来源于模拟人类大脑神经,同一种神经放在不同的大脑区
阅读全文
posted @ 2017-03-28 21:52 蚀
阅读(257)
评论(0)
推荐(0)
2017年3月26日
数据科学第一战:Iris的Pyhton数据分析
摘要: 用pyhton具体实现机器学习算法感觉并没有Octave方便 幸好python有专门的scikit-learn库来直接用,所以以后的策略就是用Octave学习和理解算法 用python应用库算法解决Kaggle问题 1,Iris数据集逻辑回归Python版,数据地址:https://www.kagg
阅读全文
posted @ 2017-03-26 21:34 蚀
阅读(413)
评论(0)
推荐(0)
2017年3月23日
机器学习公开课笔记第三周,逻辑回归
摘要: 1,逻辑回归(Logistic Regression) 监督学习除了线性回归之外,还有逻辑回归(Logistic Regression),也叫分类(Classifycation) 分类问题输入和线性回归问题一样,不过它的输出是离散值。 我们先来学习简单二元分类(输出值只有0和1) 问题就是给定n个特
阅读全文
posted @ 2017-03-23 13:35 蚀
阅读(298)
评论(0)
推荐(0)
2017年3月15日
机器学习公开课笔记第二周,线性回归的梯度下降法
摘要: 一,梯度下降法Gradient Decent 当我们以线性回归的模型来拟合我们的数据集时,我们如何来确定假设函数的参数值呢? 首先我们以两个参数为例,即Hθ(x) = θ0 + θ1X,也就是一个一次函数,而代价函数,我们为了尽量拟合数据集,也就是选择合适的θ0(截距), θ1(斜率)使代价函数J(
阅读全文
posted @ 2017-03-15 21:10 蚀
阅读(831)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
···
17
下一页
公告