会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
aaa2222339
博客园
首页
新随笔
联系
管理
订阅
上一页
1
···
16
17
18
19
20
21
22
23
24
···
32
下一页
2019年5月5日
SVM
摘要: 1、代价函数(若不采用核函数) 其中: 这里的C是一个常数,是人为设定的,类似于λ,是一个正则化参数。 2、假设函数 3、决策边界 下面的黑线是SVM的一条决策边界,它能最大化直线与样本的最短距离,即margin很大,这样就能将正负样本以最大的间距分隔开来(因此SVM有被称为大间距分类器) 4、C
阅读全文
posted @ 2019-05-05 11:38 Jary霸
阅读(160)
评论(0)
推荐(0)
2019年5月4日
查准率(precision)和召回率(recall)
摘要: 1、定义 查准率(precision):预测患有癌症且预测正确的人数 / 预测有多少人患有癌症 召回率(recall):预测患有癌症且预测正确的人数 / 实际有多少人患有癌症 2、关系 他俩的关系如下: 3、F值 F值又称F1值,定义如下,若有P或者R=0时,则F=0,该算法较差。F值越高越好。 例
阅读全文
posted @ 2019-05-04 23:24 Jary霸
阅读(1438)
评论(0)
推荐(0)
2019年5月3日
学习曲线(learning curves)
摘要: 假定假设函数为一个二次函数,只是参数未定: 每给定一个样本大小,就能训练出对应的假设函数,从而利用这个假设函数可以计算出Jtrain(仍然在之前拿来训练的那些样本里面),然后将训练好的假设函数用在全部的验证集上可以计算出Jcv(注意在计算准确率的时候就不必λ了)。 则代价与训练样本的个数之间的关系为
阅读全文
posted @ 2019-05-03 14:20 Jary霸
阅读(1715)
评论(0)
推荐(0)
2019年5月2日
偏差和方差
摘要: 两条曲线规律:测试集或验证集上的代价函数随所选的多项式的次数的变化曲线,训练集上的...曲线(递减的那条) 下图中,左边的红框代表遇到了高偏差问题,右边的红框代表高方差问题。
阅读全文
posted @ 2019-05-02 17:25 Jary霸
阅读(176)
评论(0)
推荐(0)
模型选择
摘要: 1.数据分组 将原始数据分成训练集,验证集和测试集,它们的比例分别为:60%,20%,20%。 训练集(train set) —— 用于模型拟合的数据样本。验证集(development set)—— 是模型训练过程中单独留出的样本集,它可以用于调整模型的超参数和用于对模型的能力进行初步评估。 在神
阅读全文
posted @ 2019-05-02 17:15 Jary霸
阅读(256)
评论(0)
推荐(0)
2019年4月28日
神经网络(含正则项)
摘要: 1、前向计算 举例(原本没有+1项,这是人为加上去的): 计算步骤: 先添加一个值为1的x0组成输入,θ1(大小是:对面神经元个数 * (此面神经元个数+1),即 3*4)的第i行拿出来与输入做点乘,sigmoid作用之后放到隐藏层第i个神经元里面(i=1,2,3): 再添加一个值为1的x0组成隐藏
阅读全文
posted @ 2019-04-28 23:02 Jary霸
阅读(1290)
评论(0)
推荐(0)
2019年4月24日
matlab
摘要: 1. clear:清除工作空间的所有变量 clear all:清除工作空间的所有变量,函数,和MEX文件 2. y = linspace(x1,x2,n) 生成 n 个点,起点是x1,终点是x2。 3. plot属性: LineWidth——指定线宽 MarkerEdgeColor——指定标识符的边
阅读全文
posted @ 2019-04-24 17:37 Jary霸
阅读(385)
评论(0)
推荐(0)
2019年4月23日
正则化
摘要: 正则化:通过在代价函数里面再加上一些项,使得最后训练出来的参数值较小,就能防止过拟合。下图中,方括号里面的左边一项是为了更好地拟合数据,右边是为了降低参数值(防止过拟合,即不要拟合得太近),通过λ来调节这两个关系,这里的λ是自己人为设定的。若正则化参数λ过大的话(比如10^10),那么θ1,θ2。。
阅读全文
posted @ 2019-04-23 17:31 Jary霸
阅读(232)
评论(0)
推荐(0)
优化算法
摘要: 优化算法有:梯度下降算法,共轭梯度法(conjugate gradients),BFGS,L-BFGS 后面三种算法都是可以在内部自动选择学习率,不需要人为一直搞,而且收敛速度快。
阅读全文
posted @ 2019-04-23 10:42 Jary霸
阅读(141)
评论(0)
推荐(0)
2019年4月21日
逻辑回归
摘要: 1.定义 逻辑回归属于一种分类算法,因变量为分类变量。 2.假设函数 通常令假设函数(此处为一个非线性假设)为(无非就是套在了激励函数里面了): 其中该假设函数的输出结果为:y=1的概率值 等价的,可以用新符号来表示,将拦截项专门拿出来,此时参数和x都没有1这一项了: 3.决策边界(decision
阅读全文
posted @ 2019-04-21 22:49 Jary霸
阅读(420)
评论(0)
推荐(0)
上一页
1
···
16
17
18
19
20
21
22
23
24
···
32
下一页
公告