会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
1直在路上1
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
9
10
11
12
13
2018年4月27日
局部加权线性回归
摘要: 一、LWR简介 Locally Weighted Regression, LWR,局部加权回归使一种非参数方法(Non-parametric)。在每次预测新样本时会重新训练临近的数据得到新参数值。意思是每次预测数据需要依赖训练训练集,所以每次估计的参数值是不确定的。 局部加权回归优点: 局部加权回归
阅读全文
posted @ 2018-04-27 09:25 河水青山1
阅读(1601)
评论(0)
推荐(0)
2018年4月25日
梯度下降
摘要: 梯度~反向传播~实例~局部~凸函数 一、梯度下降(Gradient Descent) 1. 梯度 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。 比如函数\(f(x,y)\),分别对\(x,y\)求偏导数,求得的梯度向量就是(∂f/∂x, ∂f/∂y
阅读全文
posted @ 2018-04-25 13:13 河水青山1
阅读(276)
评论(0)
推荐(0)
2018年4月23日
AdaBoost
摘要: 思想~适应~步骤 一、AdaBoost简介 AdaBoost是adaptive boosting的缩写,思想就是:复杂任务,多个专家综合判断,比其中任何一个专家单独判断要好,实际上就是‘三个臭皮匠顶个诸葛亮’的道理 它的自适应在于:被前一个基本分类器错误分类的样本的权值会增大,而正确分类的样本的权值
阅读全文
posted @ 2018-04-23 21:14 河水青山1
阅读(431)
评论(0)
推荐(0)
2018年4月15日
数据降维
摘要: 一、PCA:(principal component analysis) 1、为何需要PCA 比如拿到一个汽车的样本,里面既有以“千米/每小时”度量的最大速度特征,也有“英里/小时”的最大速度特征,显然这两个特征有一个多余。 拿到一个样本,特征非常多,而样例特别少,这样用回归去直接拟合非常困难,容易
阅读全文
posted @ 2018-04-15 14:26 河水青山1
阅读(173)
评论(0)
推荐(0)
聚类算法
摘要: 一、DBSCAN 1.简介: DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种基于密度的空间聚类算法。 该算法要求聚类空间中的一定区域内所包含对象(点或其他空间对象)的数目不小于
阅读全文
posted @ 2018-04-15 09:15 河水青山1
阅读(612)
评论(0)
推荐(0)
2018年4月13日
随机森林的原理分析
摘要: 集成~依赖~单元~投票~拟合~抗噪~生长~袋外 高大并重~噪多 基~串~投~敏~同~方 一、优势互补: RF属于集成学习,集成学习通过构建并结合多个分类器来完成学习任务,常可获得比单一学习器更好的泛化性能 一个简单例子:在二分类任务中,假定三个分类器在三个测试样本上的表现如下图,其中√表示分类正确,
阅读全文
posted @ 2018-04-13 17:38 河水青山1
阅读(2873)
评论(0)
推荐(0)
2018年4月11日
Reference-TMB
摘要: Paper Name:Targeted Next Generation Sequencing Identifies Markers of Response to PD-1 Blockade Adress:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3435
阅读全文
posted @ 2018-04-11 10:10 河水青山1
阅读(505)
评论(0)
推荐(0)
上一页
1
···
9
10
11
12
13
公告