会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Luke's Blog.
欲穷千里目,事后拂衣归
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
2017年6月8日
第二章完结,包含exam练习
摘要: 正则方程(Normal Equation) 梯度下降是最小化代价函数$J(\theta)$的一种方式,这里提出了另一种方式即正则方式不使用迭代方式:$\theta = (X^TX)^{ 1}X^Ty$。举例如下(m=4) 在正则方式中不需要对正则方程做尺度缩放。 下表给出了对于正则方程与梯度下降方法
阅读全文
posted @ 2017-06-08 18:10 SrtFrmGNU
阅读(350)
评论(1)
推荐(0)
2017年6月7日
梯度下降02
摘要: 多重特征 多个特征下的线性回归问题又称为:多元线性回归。这里有几个专用名词需要解释一下: $x_{j}^{i}$表示第i个训练样本中的第j歌特征值 $x^i$表示第i个训练样本的所有特征,一般是以列向量来表示。 m表示的是训练集的个数 多元形式下的假设函数可以设为:$h_\theta(x)=\the
阅读全文
posted @ 2017-06-07 18:44 SrtFrmGNU
阅读(331)
评论(0)
推荐(0)
2017年6月6日
继续,第一章中的代价函数与梯度下降算法介绍
摘要: 与几个同专业的朋友吃完饭,坐在电脑前又敲了会字,传上来 模型建立(术语介绍) 为方便将来讨论机器学习的方便,我们这里定义:$x^{(i)}$为输入变量,也成为输入的特征变量,以后将更多的应用术语Features(特征)来描述。$y^{(i)}$表示第i个输出或试图预测的目标变量。$(x^{(i)},
阅读全文
posted @ 2017-06-06 21:22 SrtFrmGNU
阅读(1093)
评论(0)
推荐(0)
机器学习1-从Ng的视频开始
摘要: 内容源于Andrew Ng视频与自己的理解 机器学习? 机器学习(Machine Learning)的定义大体上有两种,第一种是亚瑟·塞缪尔(Arthur Samuel)提出的:机器学习是通过给予电脑在为做特定编写程序的前提下具备学习得能力。Arthur本人亦是人工智能(AI)的先驱。现代机器学习教
阅读全文
posted @ 2017-06-06 10:06 SrtFrmGNU
阅读(392)
评论(0)
推荐(0)
2017年1月23日
补:关于man关于SEE ALSO(参见)中代号与vim下常用命令
摘要: 1.查阅/etc/issue文件时,使用man issue发现manual中see also出现motd(5), agetty(8), mingetty(8)字样。以及文档行首的issue(5)究竟是什么意思。 man man后解释为: 1 Executable programs or shell
阅读全文
posted @ 2017-01-23 12:41 SrtFrmGNU
阅读(801)
评论(0)
推荐(0)
2017年1月17日
开工--行胜于言
摘要: 0.0 开此Blog主要目的在于开始学习linux内核,入手书籍《鸟哥的Linux私房菜》第三版,目前看到250页有余,立此Blog督促自己更正拖延症,及学会如何思考。 0.1 此篇随笔摘录之前所学的一部分知识,抠脚英语表达,此后的随笔加以更正,但同样附以扎脚英文。 1.[deer4ever_lix
阅读全文
posted @ 2017-01-17 20:11 SrtFrmGNU
阅读(315)
评论(0)
推荐(0)
上一页
1
2
3
4
5
公告