随笔分类 -  Machine Learning

摘要:1.训练误差:学习器在训练集上的误差,也称“经验误差” 2.泛化误差:学习器在新样本上的误差 显然,我们的目标是得到在新样本上表现更好的学习器,即泛化误差要小 3.过拟合:学习器把训练样本学的太好了,导致泛化性能下降(学过头了。。。让我联想到有些人死读书,读死书,僵化,不懂得变通和举一反三) 原因: 阅读全文
posted @ 2016-06-30 11:30 kane_zch 阅读(159) 评论(0) 推荐(0)
摘要:一、知道如何计算熵 wiki对熵的解释以及熵的计算 https://zh.wikipedia.org/wiki/%E7%86%B5_(%E4%BF%A1%E6%81%AF%E8%AE%BA) 综合来说,熵实际是对随机变量的比特量和顺次发生概率相乘再总和的数学期望 原理: 在构造决策树时, 我们需要解 阅读全文
posted @ 2016-06-21 18:56 kane_zch 阅读(181) 评论(0) 推荐(0)
摘要:P22页,命令 datingDataMat,datingLabels=kNN.file2matrix('datingTestSet.txt')要改为datingDataMat,datingLabels=kNN.file2matrix('datingTestSet2.txt'),不然会出现错误Valu 阅读全文
posted @ 2016-06-21 16:18 kane_zch 阅读(231) 评论(0) 推荐(0)