2017年1月30日

层化(stratification)的方法

摘要: 有时候我们会遇到调整后的模型反而不如调整前表现好的情况,这可能和数据的随机分割有关系。在这个不平衡的数据情况下,最好用层化(stratification)的方法,比如: from sklearn.cross_validation import StratifiedShuffleSplit...sss 阅读全文

posted @ 2017-01-30 08:49 Betty__2017 阅读(524) 评论(0) 推荐(0) 编辑

精度和召回比重

摘要: 现在我们用的是F1指标,它对精度和召回用了同样的比重。有些情况下,我们可能会更偏向精度和召回中的某一项,这时候可以使用F-beta指标: f1_scorer = make_scorer(fbeta_score, beta=1, pos_label= "yes") 其中的beta参数决定了精度和召回的 阅读全文

posted @ 2017-01-30 08:48 Betty__2017 阅读(166) 评论(0) 推荐(0) 编辑

2017年1月29日

混淆矩阵confusion_matrix

摘要: http://scikit-learn.org/stable/modules/generated/sklearn.cross_validation.train_test_split.html 阅读全文

posted @ 2017-01-29 22:24 Betty__2017 阅读(397) 评论(0) 推荐(0) 编辑

Cross_validation.train_test_split 中 stratify这个参数的意义是什么?

摘要: 比单独使用train_test_split来划分数据更严谨 stratify是为了保持split前类的分布。比如有100个数据,80个属于A类,20个属于B类。如果train_test_split(... test_size=0.25, stratify = y_all), 那么split之后数据如 阅读全文

posted @ 2017-01-29 22:13 Betty__2017 阅读(11052) 评论(1) 推荐(1) 编辑

《中国大学--博弈论》

摘要: 知人者智,自知者明; 胜人者力,自胜者强; 小胜者术,大胜者德。 阅读全文

posted @ 2017-01-29 17:32 Betty__2017 阅读(163) 评论(0) 推荐(0) 编辑

增强学习 书籍推荐

摘要: https://webdocs.cs.ualberta.ca/~sutton/book/bookdraft2016sep.pdf 阅读全文

posted @ 2017-01-29 17:25 Betty__2017 阅读(278) 评论(1) 推荐(0) 编辑

Google Python Style Guide

摘要: https://google.github.io/styleguide/pyguide.html 阅读全文

posted @ 2017-01-29 08:36 Betty__2017 阅读(255) 评论(0) 推荐(0) 编辑

ID3 Algorithm for Decision Trees

摘要: 转自 https://storage.googleapis.com/supplemental_media/udacityu/5446988865/ID3%20Algorithm%20for%20Decision%20Trees.pdf 阅读全文

posted @ 2017-01-29 08:35 Betty__2017 阅读(223) 评论(0) 推荐(0) 编辑

2017年1月28日

《Decentralized Applications 》 深度学习书籍

摘要: 下载地址 http://download.csdn.net/detail/libingchen/9691767 阅读全文

posted @ 2017-01-28 21:56 Betty__2017 阅读(140) 评论(0) 推荐(0) 编辑

An introduction to machine learning with scikit-learn

摘要: 转自 http://scikit-learn.org/stable/tutorial/basic/tutorial.html#machine-learning-the-problem-setting In general, a learning problem considers a set of 阅读全文

posted @ 2017-01-28 20:10 Betty__2017 阅读(645) 评论(0) 推荐(0) 编辑

导航