随笔分类 - Machine Learning
摘要:时间序列分解-STL分解法 【转载时请注明来源】:http://www.cnblogs.com/runner-ljt/ Ljt 作为一个初学者,水平有限,欢迎交流指正。 STL(’Seasonal and Trend decomposition using Loess‘ )是以鲁棒局部加权回归作为平
阅读全文
摘要:Linear Model Selection and Regularization此博文是 An Introduction to Statistical Learning with Applications in R 的系列读书笔记,作为本人的一份学习总结,也希望和朋友们进行交流学习。该书是The ...
阅读全文
摘要:Linear Model Selection and Regularization此博文是 An Introduction to Statistical Learning with Applications in R 的系列读书笔记,作为本人的一份学习总结,也希望和朋友们进行交流学习。该书是The ...
阅读全文
摘要:Linear Model Selection and Regularization此博文是 An Introduction to Statistical Learning with Applications in R 的系列读书笔记,作为本人的一份学习总结,也希望和朋友们进行交流学习。该书是The ...
阅读全文
摘要:Resampling Methods此博文是 An Introduction to Statistical Learning with Applications in R 的系列读书笔记,作为本人的一份学习总结,也希望和朋友们进行交流学习。该书是The Elements of Statistical...
阅读全文
摘要:Classification此博文是 An Introduction to Statistical Learning with Applications in R 的系列读书笔记,作为本人的一份学习总结,也希望和朋友们进行交流学习。该书是The Elements of Statistical Le...
阅读全文
摘要:Linear Regression此博文是 An Introduction to Statistical Learning with Applications in R 的系列读书笔记,作为本人的一份学习总结,也希望和朋友们进行交流学习。该书是The Elements of Statistical...
阅读全文
摘要:偏置和方差参考资料:http://scott.fortmann-roe.com/docs/BiasVariance.html http://www.cnblogs.com/kemaswill/Bias-variance 分解是机器学习中一种重要的分析技术。给定学习目标和训练集规模,它可以把一种学习算...
阅读全文
摘要:学习理论之偏差与方差转载自 http://www.cnblogs.com/90zeng/ 作者:博客园-90Zeng1. 偏差和方差平衡在线性回归中,对于同一个数据集,可以拟合出简单的线性模型或者较为复杂一些的多项式例如:图中的训练样本是一致的,但是可以拟合出不同的模型。最右边图中拟合出的5阶多...
阅读全文
摘要:朴素贝叶斯算法【转载时请注明来源】:http://www.cnblogs.com/runner-ljt/ Ljt 勿忘初心 无畏未来 作为一个初学者,水平有限,欢迎交流指正。朴素贝叶斯分类法是一种生成学习算法。假设:在y给定的条件下,各特征Xi 之间是相互独立的,即满足 : P(x1,x2.......
阅读全文
摘要:鲁棒局部加权回归【转载时请注明来源】:http://www.cnblogs.com/runner-ljt/ Ljt 作为一个初学者,水平有限,欢迎交流指正。算法参考文献:(1) Robust Locally Weighted Regression and Smoothing Scatterplot...
阅读全文
摘要:局部加权线性回归 【转载时请注明来源】:http://www.cnblogs.com/runner-ljt/ Ljt 作为一个初学者,水平有限,欢迎交流指正。线性回归容易出现过拟合或欠拟合的问题。局部加权线性回归是一种非参数学习方法,在对新样本进行预测时,会根据新的权值,重新训练样本数据得到新的...
阅读全文
摘要:随机梯度下降法 【转载时请注明来源】:http://www.cnblogs.com/runner-ljt/ Ljt 作为一个初学者,水平有限,欢迎交流指正。批量梯度下降法在权值更新前对所有样本汇总误差,当样本较多时,其计算量就会非常大。随机梯度下降法的权值更新是通过单个的样本进行更新,每读取一条样...
阅读全文
摘要:梯度下降法: 【转载时请注明来源】:http://www.cnblogs.com/runner-ljt/ Ljt 作为一个初学者,水平有限,欢迎交流指正。应用:求线性回归方程的系数目标:最小化损失函数 (损失函数定义为残差的平方和)搜索方向:负梯度方向,负梯度方向是下降最快的方向梯度下降法的R实现...
阅读全文

浙公网安备 33010602011771号