摘要: EX5 偏差v.s.方差在正则线性回归下的体现 ​ 在练习的前半段,你将利用正则化线性回归模型根据水库中水位变化来预测流出大坝的水量,之后的下半段练习中,将通过调试所学的算法的诊断效果,检查是偏差还是方差的影响。 数据的可视化 ​ 首先对大坝保存的历史记录中德数据进行可视化,包括水位的变化x以及从坝 阅读全文
posted @ 2017-07-05 23:37 SrtFrmGNU 阅读(272) 评论(0) 推荐(0) 编辑
摘要: 白白的敲了两个晚上,没保存,重来。。 对于机器学习ML实际应用中的几点建议 调试学习算法中决定下一步的选择 ​ 假设你利用正则化后的线性回归来预测房价 ​ 但利用训练出来的函数应用在新的房屋集中时,会发现对于预测出现了很大的误差,接下来可以选择: 获取更多的训练样本 尝试减少训练集中的特征数 尝试增 阅读全文
posted @ 2017-07-03 23:48 SrtFrmGNU 阅读(711) 评论(0) 推荐(0) 编辑
摘要: 回了趟家,一路上来回的重复播放李健的几首歌,现在充电完成,准备工作! Ex4:神经网络学习 ​ 在这一练习中,我们将把神经网络中的后向传播算法应用到手写识别中,在上一个练习中,通过实现神经网络的前馈传播,并用它来预测和写入数字与我们提供的权重(weights)。 在本练习中,我们将实现反向传播算法来 阅读全文
posted @ 2017-06-28 21:24 SrtFrmGNU 阅读(790) 评论(0) 推荐(0) 编辑
摘要: 神经网络中的代价函数与后向传播算法 代价(损失)函数 ​ 依照惯例,我们仍然首先定义一些我们需要的变量: L:网络中的总层数,$s_l​$:在第l层所有单元(units)的数目(不包含偏置单元),k:输出单元(类)的数目 ​ 回想一下,在神经网络中,我们可能有很多输出节点。 我们将$h_\Theta 阅读全文
posted @ 2017-06-19 19:12 SrtFrmGNU 阅读(3101) 评论(0) 推荐(0) 编辑
摘要: ​ 昨日去了趟无锡,前天下了暴雨,所以昨天给我的感觉天气很好,天蓝云白的,以后在这边学习估计也是一件很爽的事情,且昨日通知书业寄到学校了,附赠了一份研究生数学建模的传单,我搜了搜近几年的题目,感觉统计模块的题目很多,学了一段时间的机器学习现在感觉看懂还是有点小难,但是有几道可以直接看出思路。昨天回来 阅读全文
posted @ 2017-06-12 16:21 SrtFrmGNU 阅读(567) 评论(0) 推荐(0) 编辑
摘要: ​ 自己好奇搜了几篇别人对Ng视频的的笔记,读下去可观性很强,后回到自己的笔记却觉得矛盾很多,有些地方搞得很模糊,自己没有仔细去想导致写完读起来很怪,此篇之后我决定放慢记笔记的速度,力求尽多地搞清楚模糊点。 ​ 首先之前一直出现的 regression analysis(即:回归分析) 究竟是怎么回 阅读全文
posted @ 2017-06-10 17:04 SrtFrmGNU 阅读(357) 评论(0) 推荐(0) 编辑
摘要: 开始学习神经网络(Neural Network) 已有线性与逻辑回归,为什么需要用到NN 实际的应用中,需要根据很多特征进行训练分类器,当今有两个特征下,可以通过下图表述: 然而还有太多的特征需要考虑,假设这里有100个特征,包含他们所有的相关项后可能会有5000个,这种计算量很显然是非常大的,当然 阅读全文
posted @ 2017-06-10 12:29 SrtFrmGNU 阅读(845) 评论(0) 推荐(0) 编辑
摘要: EX2 逻辑回归练习 ​ 假设你是一个大学某系的管理员,你想根据两项考试结果来确定每个申请人的录取机会。你有以前申请人的历史资料以作为逻辑回归的训练集。对于每一个训练集,你拥有每个申请人的两项考试的分数与最终录取与否的信息。 绘出数据散点图 ~~~matlab figure; hold on; %F 阅读全文
posted @ 2017-06-09 19:35 SrtFrmGNU 阅读(678) 评论(0) 推荐(0) 编辑
摘要: 这次根据结合Google的翻译果然速度快上许多,暂时休息,晚上在传一个exm2的随笔。 关于过度拟合下的问题 考虑从x∈R预测y的问题,下面的最左边的图显示了将$y=\theta_0+\theta_1x$拟合到数集的结果,我们看到数据不是真的在直线上,所以适合度不是很好。 相反,如果我们添加了一个额 阅读全文
posted @ 2017-06-09 15:58 SrtFrmGNU 阅读(354) 评论(0) 推荐(0) 编辑
摘要: 自己翻译了一些,对照了下google的翻译结果,发现有好多还不如机器翻译的...果然AI大法好 :) 开始新的章节 分类 为了尝试分类,直觉想到了使用线性回归,即将大于0.5的所有预测映射为1,全部小于0.5的映射为0.然而由于分类问题并不是简单的线性函数,因此该分类实际上并不能很好进行。其实分类问 阅读全文
posted @ 2017-06-09 11:58 SrtFrmGNU 阅读(375) 评论(0) 推荐(0) 编辑