随笔分类 - Python机器学习
摘要:一、协同过滤 二、重新整理,梳理协同过滤 先只选取部分数据来做验证看看 用数据透视表来构造用户-项目,项目-用户矩阵 计算用户用户相似度矩阵,项目项目相似度矩阵 通过计算出来的相似度矩阵,来计算用户对项目的评分,以用户-项目为例 已经有了用户-项目矩阵,然后也计算了用户用户的相似度, 以上两个矩阵相
阅读全文
摘要:入门小案例,分别是回归模型建立和mnist数据集的模型建立 1、回归案例: 2、MNIST普通神经网络 3、MNIST卷积神经网络 '''总结一下: 1、首先要弄清楚整个卷积神经网络的构图,分别是卷积池化》卷积池化》全连接》输出 2、样本是一个长784维的变量,要reshape成为28,28的图片才
阅读全文
摘要:一、原理部分: 二、xgboost实现 看看大神的博客瞬间了解:https://blog.csdn.net/han_xiaoyang/article/details/52665396
阅读全文
摘要:一、原理部分: 二、sklearn实现:
阅读全文
摘要:一、原理部分: 图片形式~ 二、sklearn实现: 可以看看这个:https://blog.csdn.net/han_xiaoyang/article/details/52663170 1、分类: 最后结果,结果也是很好,跟svm差不多吧。可能是我调参不够好,不过暂时不纠结这个 {'subsamp
阅读全文
摘要:一、原理部分: 依然是图片~ 二、sklearn实现: {'gamma': 0.01, 'C': 7}0.9784706755750.982222222222 感觉SVM调参要很注意,如果过低说明你很可能过拟合了!可以先给一个比较大范围的,然后逐步缩小
阅读全文
摘要:一、算法原理 还是图片格式~ 二、sklearn实现 正确率好高啊,直接用1个k来做。。。{'n_neighbors': 1}正确率 0.986666666667
阅读全文
摘要:一、原理部分: 还是图片显示~ 二、sklearn实现 1、回归树 决策树做回归也太差了吧,难道是我调参有问题吗?一会试试调参看看 决策回归树的误差: 667.87208618 还是没啥用,好差的效果,同样的数据,前面线性回归的均方误差才二十几 决策回归树的误差: 643.989924585 2、分
阅读全文
摘要:一、原理部分: 只能图片形式展现了~~~ 二、利用sklearn完成: 1、linear_regression 实际的值是2,4,6,8,10,20 [ 2.1273754 4.04650716 6.2226947 8.1097271 9.70858232] 28.9951381971均方误差是:
阅读全文

浙公网安备 33010602011771号