Coursera-AndrewNg(吴恩达)机器学习笔记——第四周编程作业(多分类与神经网络)
摘要:多分类问题——识别手写体数字0-9 一.逻辑回归解决多分类问题 1.图片像素为20*20,X的属性数目为400,输出层神经元个数为10,分别代表1-10(把0映射为10)。 通过以下代码先形式化展示数据 ex3data1.mat内容: 函数displayData()实现解析如下: 2.向量化逻辑回归
阅读全文
posted @
2018-05-22 17:03
LoganGo
阅读(5244)
推荐(1)
Coursera-AndrewNg(吴恩达)机器学习笔记——第四周
摘要:神经网络 1.神经网络发展的动力:在逻辑回归解决复杂的分类问题时,我们使用属性的一些组合来构造新的属性(x12,x1x2,x22...),这样就会造成属性的数目n过多,带来了大量的运算,甚至造成过拟合的现象。在计算机视觉中对物体进行识别,需要将图片的像素点作为属性,因此,属性的项目n将会十分的庞大。
阅读全文
posted @
2018-05-18 14:21
LoganGo
阅读(647)
推荐(0)
Coursera-AndrewNg(吴恩达)机器学习笔记——第三周编程作业(逻辑回归)
摘要:一. 逻辑回归 1.背景:使用逻辑回归预测学生是否会被大学录取。 2.首先对数据进行可视化,代码如下: 3.sigmoid函数的实现,代码如下: 4.代价函数的实现代码如下: 5.代替梯度下降的优化方法fminunc(),代码如下: 6.使用计算出的θi值做预测,预测函数如下: 二. 正规化逻辑回归
阅读全文
posted @
2018-05-09 15:16
LoganGo
阅读(5527)
推荐(0)
Coursera-AndrewNg(吴恩达)机器学习笔记——第三周
摘要:一.逻辑回归问题(分类问题) 其中g(z)被称为逻辑函数或者Sigmiod函数,其函数图形如下: 理解预测函数hθ(x)的意义:其实函数hθ(x)的值是系统认为样本值Y为1的概率大小,可表示为hθ(x)=P(y=1|x;θ)=1-P(y=0|x;θ). 代价函数(Cost Function)J(θ)
阅读全文
posted @
2018-03-19 21:52
LoganGo
阅读(1777)
推荐(1)
Coursera-AndrewNg(吴恩达)机器学习笔记——第二周编程作业(线性回归)
摘要:一.准备工作 二.单变量线性回归 绘制图形:rx代表图形中标记的点为红色的x,数字10表示标记的大小。 计算代价函数(Cost Funtion):迭代次数1500,学习速率0.01. iterations = 1500; alpha = 0.01; 注意需给原始数据X添加一列值为1的属性:X = [
阅读全文
posted @
2018-03-09 13:56
LoganGo
阅读(6909)
推荐(2)
Coursera-AndrewNg(吴恩达)机器学习笔记——第二周
摘要:一.多变量线性回归问题(linear regression with multiple variables) 预测函数(Hypothesis):hθ(x)=θ0+θ1x1+θ2x2+……+θnxn,记x0=1()所以预测函数使用矩阵相乘的形式可写为:hθ(x)=ΘTX. 代价函数(Cost Func
阅读全文
posted @
2018-03-07 17:02
LoganGo
阅读(1321)
推荐(1)
Coursera-AndrewNg(吴恩达)机器学习笔记——第一周
摘要:一.初识机器学习 二.单变量线性回归问题(Linear regression with one variable) 三.线性代数知识点回顾
阅读全文
posted @
2018-03-06 21:49
LoganGo
阅读(1390)
推荐(0)