会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
小树同学
博客园
首页
新随笔
联系
订阅
管理
2019年4月28日
第五次编程作业-Regularized Linear Regression and Bias v.s. Variance
摘要: 1.正规化的线性回归 (1)代价函数 (2)梯度 linearRegCostFunction.m 用fmincg最优的theta来拟合线性回归,画出线性回归函数(在这里是低维度的可以画出来) 2.偏差与方差 (1)求训练样本的误差代价: (2)交叉样本集 Jcv learningCurve.m 学习
阅读全文
posted @ 2019-04-28 11:29 小树同学
阅读(296)
评论(0)
推荐(0)
2019年3月27日
监督学习-神经网络学习及编程作业
摘要: 一、一组神经元 θ是模型权重(模型的参数)。 二、模型展示 三、多元分类 四、编程作业(多元分类) 1.lrCostFunction.m 在这部分是对上节作业的for循环进行矢量化,在上节作业中已经矢量化了。从代码中可以看出用到了costfunction函数,所以把该函数放到同一文件夹中。 2.on
阅读全文
posted @ 2019-03-27 22:04 小树同学
阅读(284)
评论(0)
推荐(0)
2019年3月20日
监督学习-逻辑回归及编程作业(二)
摘要: 一、过拟合问题 欠拟合、恰当拟合、过拟合(代价函数约为0,泛化太差) 样本数量少,而样本特征很多,容易出现过拟合问题,如何解决? 1.利用一些算法自动舍弃一部分特征; 2.正则化,保留所有特征,减小 θ 量级。 二、线性回归的正则化 三、逻辑回归的正则化 编程作业 1.plotDate.m 在第一部
阅读全文
posted @ 2019-03-20 11:16 小树同学
阅读(183)
评论(0)
推荐(0)
2019年3月19日
监督学习-逻辑回归及编程作业(一)
摘要: 一、Logistic回归——分类 对于分类问题,采用线性回归是不合理的。 1.假设函数(logistic函数/Sigmoid函数): 注:假设函数 h 的值,看作结果为y=1的概率估计。决策界限可以看作是 h=0.5 的线。 2.代价函数 3.高级优化 fminunc 在上文优化过程中需要提供α值,
阅读全文
posted @ 2019-03-19 12:07 小树同学
阅读(303)
评论(0)
推荐(0)
2019年3月12日
监督学习-线性回归及编程作业
摘要: 一、单变量线性回归: m训练样本,x输入变量特征(单变量特征只有一个),y输出变量即预测。如何用m个,特征为x的训练样本,来得到预测值? 假设函数: 代价函数: 优化目标:使用梯度下降法优化θ值来最小化代价函数J。 梯度是一个矢量,指其方向上的方向导数最大,即增长最快。 梯度下降法算法思想: 1)
阅读全文
posted @ 2019-03-12 21:28 小树同学
阅读(414)
评论(0)
推荐(0)
公告