随笔分类 - 机器学习
摘要:sigmoidGradient.m randInitializeWeights.m nnCostFunction.m
阅读全文
摘要:Neural Networks: Learning 计算误差矩阵,选C reshape函数的使用,选A ((2*1.014+2)-(2*0.994+2))/0.02 ~= 8.0008 选B 选BD 选BC
阅读全文
摘要:Neural'Networks:' Learning Cost function 先进行符号定义: L:神经网络层数 Sl:第l层的单元数(不包括偏置单位) K:输出单元数(SL) 逻辑回归的代价函数是: 而神经网络的代价函数有所不同,是: 这个看上去很复杂的代价函数背后的原理还是一样的,我们希望通
阅读全文
摘要:lrCostFunction.m oneVsAll.m predictOneVsAll.m predict.m
阅读全文
摘要:Neural Networks: Representation 选AD B加起来不一定非要等于1 C要加一层隐藏层才行 逻辑运算,选A 考察神经网络的运行过程,选A 计算题,选A 计算题,选A
阅读全文
摘要:Neural Networks: Representation Non-linear hypotheses 我们之前学到的,无论是线性回归还是逻辑回归都有一个缺点,当特征太多时,计算负荷会非常的大。 如下: 只有x1和x2,但运用多次项进行预测时,我们的方程可以很好的预测。使用非线性的多项式能够帮助
阅读全文
摘要:sigmoid.m costFunction.m predict.m costFunctionReg.m
阅读全文
摘要:Week3 || Logistic Regression 概率计算,选AD C中J(θ)将减小,D中只能在0至1之间,故选AB 选AC,A中z应为x,应该是打印错误,B和D中是线性回归的 选AC B对于每一个类有要做一个分类器,D由于使用代价函数为线性回归代价函数,会有很多局部最优值 计算题 X1
阅读全文
摘要:Classification 在分类问题中,你要预测的变量y的离散的值,我们将学习一种叫做逻辑回归的算法。 在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。 分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;之前我们也谈到了肿瘤分类问题的例子,区别一
阅读全文
摘要:warmUpExercise.m plotData.m gradientDescent.m computeCost.m gradientDescentMulti.m computeCostMulti.m featureNormalize.m normalEqn.m
阅读全文
摘要:Week2 || Introduction 求x2(4)第4个数据的第2个特征的归一化。 平均值:(7921+5184+8836+4761) / 4 = 6675.5 MAX-MIN = 8836 - 4761 = 4075 所以答案为(4761 - 6675.5) / 4075 = -0.47 本
阅读全文
摘要:Multiple Features 之前学的是“单变量线性回归”,明显一个问题不可能只有一个特征,现在增加特征数量变成“多变量线性回归”。 下面对一些符号进行定义: n:特征的数量 m:训练数据的数量 x(i):训练集中的第i的数据 x(i)j:第i个数据的第j个特征 y(i):第i个数据的标签(输
阅读全文
摘要:Week1 || Introduction 考察机器学习的定义,由Tom Mitchell 提出的。答案是A 考察监督学习的类型,预测明天的温度,由于是一个连续的值,故选A 考察监督学习的类型,预测是否赢得专利侵权诉讼,答案就两个“YES”和“NO”,是一个离散值,故选B 哪些选项适合使用监督学习。
阅读全文
摘要:What is machine learning? 实际上,即使是在机器学习的专业人士中,也不存在一个被广泛认可的定义来准确定义机器学习是什么或不是什么,本课程中给出了两个定义 1:Arthur Samuel (1959). Machine Learning: Field of study that
阅读全文