摘要: K means 1. 随机初始化K个中心点,u1,u2..uk 2. c(i)=1...k 分的哪个类 3. 所有的函数都有优化目标函数:失真代价函数(distortion cost funtion),并且求到最优解 4. uc(i):x(i)是属于哪一个簇 任何随机的选择初始点 1. 随机的选择: 阅读全文
posted @ 2016-05-23 23:07 nice_day 阅读(124) 评论(0) 推荐(0)
摘要: 1.特征向量n,训练样本的数量m,应该选择怎样的核函数? 2.归一化处理 3.有哪些核函数? 线性核函数(不含f);高斯核函数、多项式核函数。。。 4.libliner,libsvm 可以得到theta 5.逻辑回归、支持向量机、神经网络采用的对比→我们更应该关注的是特征值选择(增加),训练集的增加 阅读全文
posted @ 2016-05-20 20:51 nice_day 阅读(134) 评论(0) 推荐(0)
摘要: 1.margin of support vector machine 支持向量机间距2.鲁棒性 使用一个最大的间距将数据分开3.又称最大间距分类器 large margin classifier4.outlier 异常值 当C非常大的时候(10000),黑线就会变成粉线,在理论中可以这样使用,但是在 阅读全文
posted @ 2016-05-18 19:33 nice_day 阅读(348) 评论(0) 推荐(0)
摘要: 一、基本用法: 1. size(X,1),返回矩阵X的行数; size(X,2),返回矩阵X的列数; 2.行向量变列向量:x1 = x1(:) 当只有一个∑ 时,注意考虑到是矩阵,所以不用像神经网络一样sum 阅读全文
posted @ 2016-05-15 20:13 nice_day 阅读(101) 评论(0) 推荐(0)
摘要: 评估机器算法的性能 1. 70%训练+30%检测 2.随机打乱 改进算法(偏差、方差) 1. 训练集60% 交叉集20% 检验集20% 2.why分成三段,因为两段只能看出test训练得好不好,我们的目的是看新数据进入后能不能得到好的预测 2. 判断是过拟合和欠拟合的方法: 使用误差函数 1. wh 阅读全文
posted @ 2016-05-10 18:38 nice_day 阅读(513) 评论(0) 推荐(0)
摘要: 实现神经网络步骤 1. 确定架构:NO.input & output(注意y是01向量),和隐藏层的层数(一般隐藏层越多越好,但计算量就大了,默认是一层) 2. 设定初始权重 3. for i = 1:m (1)前向传播:a(l) (2)实现 J(Θ) (3)后向传播:δ(l) 4. 得到偏导 5. 阅读全文
posted @ 2016-05-08 10:24 nice_day 阅读(100) 评论(0) 推荐(0)
摘要: 神经网络反向传播 1. i,j 分别是θ的行列 2. j=0? 3. 反向传播为了求出cost function的偏导 后向传播的深入理解 1.前向传播得到的a,与后向传播得到的δ 计算的方式是相同的 2.注意δ(0) 是没有的 从矩阵展开成向量→(在高级优化中使用) 1. thetaVec组成一个 阅读全文
posted @ 2016-05-07 15:45 nice_day 阅读(299) 评论(0) 推荐(0)
摘要: USE MARKDOWN insert picture: ![] (_=800x400) let me show it: language director Tap "here" table number | color | 1 | red 2 | org 3 | bla ~~~ print(’he 阅读全文
posted @ 2016-05-07 12:38 nice_day 阅读(133) 评论(0) 推荐(0)
摘要: 一、神经网络中的代价函数 l:第几层 ; i : 1. K 是最后分类的个数 2.theta0不加入惩罚函数中 3.由逻辑回归的归一化形式(避免过拟合)推到出神经网络的形式 二、反向传播--减小代价函数--计算出代价函数的偏导(依然是最速下降法的思想) 1. δ:第 l 层,第 j 节点的激励值的误 阅读全文
posted @ 2016-05-04 20:25 nice_day 阅读(477) 评论(0) 推荐(0)
摘要: 一、什么是神经网络: 脑(皮层)可以处理光、声音、触觉, eg 用舌头看世界。 用计算机模拟大脑,因此只需要一个算法就可以实现。 二、神经网络模型: 激励方程sigmoid=logic=activation function、权重weight 1. 输入层input,隐藏层hiden,输出层outp 阅读全文
posted @ 2016-04-29 09:44 nice_day 阅读(215) 评论(0) 推荐(0)