摘要: 最近在训练的时候,又开始用Latex进行写作。碰到了很多问题,将问题进行记录与总结。 一、输出中文的问题 由于写作的时候用的是中文,而之前用的是英文,故碰到的第一个问题就是中文的问题。我之前下的是WinEdit7.0,为此我安装了一个TeXstudio。这个软件的好处在于,你可以边写边看。 安装好之 阅读全文
posted @ 2020-08-23 17:03 不爱学习的Shirley 阅读(1880) 评论(0) 推荐(0) 编辑
摘要: 在写文章的最后最让我头疼的就是参考文献的问题了。网上的资料也有很多,这里整合了很多资料得出了一个用bib文件的方法。 1. 先确定参考文献(一句没什么用的废话)。 2. 利用谷歌学术(镜像),如果镜像用不了还可以考虑用微软学术(网址:https://academic.microsoft.com/ho 阅读全文
posted @ 2020-07-31 21:50 不爱学习的Shirley 阅读(1723) 评论(0) 推荐(0) 编辑
摘要: 最近在学习使用Latex,在学习过程中碰到很多小问题,故记之。 以下是一个参数表的实例(绘成三线表的形式)。 1 \begin{table}[hp] %%参数: h:放在此处 t:放在顶端 b:放在底端 p:在本页 2 \renewcommand\arraystretch{1.2} 3 %\setl 阅读全文
posted @ 2020-07-27 21:45 不爱学习的Shirley 阅读(3476) 评论(0) 推荐(0) 编辑
摘要: 这一节主要介绍的是决策界限(decision boundary)的概念,这个概念可以帮组我们更好地理解逻辑回归的假设函数在计算什么。 首先回忆一下上次写的公式。 现在让我们进一步了解这个假设函数在什么时候会将y预测为1,什么时候会将y预测为0。并且更好地理解假设函数的形状,特别是当我们的数据有多个特 阅读全文
posted @ 2020-07-15 17:18 不爱学习的Shirley 阅读(600) 评论(0) 推荐(1) 编辑
摘要: 在本节中,我们将学习假设陈述。也就是,当有一个分类问题的时候,我们要使用哪个方程表示我们的假设。此前我们说过,希望我们的分类器的输出值在0和1之间。因此,我们希望想出一个满足它的预测值要在0和1之间的假设。 当我们使用线性回归的时候,假设形式为hθ(x)=θTx。对于逻辑回归,hθ(x)=g(θTx 阅读全文
posted @ 2020-04-15 18:21 不爱学习的Shirley 阅读(259) 评论(0) 推荐(0) 编辑
摘要: 在这节以及接下来几节中,我们要开始讨论分类问题。这节将告诉我们为什么对于分类问题来说,使用线性回归并不是一个好主意。 在分类问题中,你要预测的变量y是一个离散的值,我们将学习一种叫做逻辑回归(Logistic Regression)的算法,这是当今最流行、使用最广泛的学习算法之一。 分类问题的例子有 阅读全文
posted @ 2020-04-14 20:56 不爱学习的Shirley 阅读(474) 评论(0) 推荐(1) 编辑
摘要: 现在其实有很多关于机器学习的课程,但是最经典的还是吴恩达2014机器学习的课程。 课程地址:https://www.coursera.org/course/ml 这是我自己在学习过程中的笔记,争取每天都更新。 目录 一、引言 1.1欢迎 1.2机器学习是什么? 1.3监督学习 1.4无监督学习 二、 阅读全文
posted @ 2020-04-10 23:10 不爱学习的Shirley 阅读(315) 评论(0) 推荐(0) 编辑
摘要: 在这节中,我们将学习有关向量化的内容。无论你是用Ocatve,还是别的语言,比如MATLAB或者你正在用Python、NumPy 或Java、C、C++,所有这些语言都具有内置的,容易阅读和获取的各种线性代数库,它们通常写得很好,已经经过高度优化,通常是数值计算方面的博士或者专业人士开发的。而当你实 阅读全文
posted @ 2020-04-10 23:09 不爱学习的Shirley 阅读(391) 评论(0) 推荐(0) 编辑
摘要: 在本节中,我们将学习如何为Octave程序写控制语句。 首先,我们先学习如何使用for循环。我们将v设为一个10行1列的零向量。 接着,我们写一个for循环,让i等于1到10。写出来就是for i = 1:10。我要设v(i)的值等于2 的i次方,即输入 v(i) = 2^i ,循环的最后要记得写上 阅读全文
posted @ 2020-04-08 21:19 不爱学习的Shirley 阅读(243) 评论(0) 推荐(0) 编辑
摘要: 当开发学习算法时,往往几个简单的图,可以让你更好地理解算法的内容,并且可以完整地检查下算法是否正常运行,是否达到了算法的目的。例如在之前的课程中,学了如何绘制成本函数J(θ),可以帮助确认梯度下降算法是否收敛。通常情况下,绘制数据或学习算法所有输出,也会启发如何改进学习算法。幸运的是,Octave有 阅读全文
posted @ 2020-04-07 21:50 不爱学习的Shirley 阅读(245) 评论(0) 推荐(0) 编辑