上一页 1 2 3 4 5 6 7 8 ··· 14 下一页
摘要: import xlrd import sys,time data = xlrd.open_workbook("C:\Users\Administrator\Desktop\\new1.xlsx") table = data.sheets()[0] cols = table.ncols rows = table.nrows for i in range(cols): fields... 阅读全文
posted @ 2017-04-10 15:15 2BiTT 阅读(2548) 评论(0) 推荐(0)
摘要: 老公司架构调整,调整后的工作内容和自己的职业规划不符,就离开了。碰巧有同学在腾讯,叫他帮忙内推去面试了一下,第一次只面完了四面,在总经理面前表现不是很好,四面没有通过,不过整个流程下来,觉得腾讯的社招面试还真的挺有含量的,去面试了,不过也没有通过,对自己的前一阶段的工作都是很好的总结和提升的机会。 阅读全文
posted @ 2017-03-19 18:19 2BiTT 阅读(11760) 评论(0) 推荐(1)
摘要: 转自:http://www.ibm.com/developerworks/cn/web/1103_zhaoct_recommstudy3/index.html 智能推荐大都基于海量数据的计算和处理,然而我们发现在海量数据上高效的运行协同过滤算法以及其他推荐策略这样高复杂的算法是有很大的挑战的,在面对 阅读全文
posted @ 2017-01-17 16:04 2BiTT 阅读(257) 评论(0) 推荐(0)
摘要: 转自:http://www.ibm.com/developerworks/cn/web/1103_zhaoct_recommstudy2/index.html 本系列的第一篇为读者概要介绍了推荐引擎,下面几篇文章将深入介绍推荐引擎的相关算法,并帮助读者高效的实现这些算法。 在现今的推荐技术和算法中, 阅读全文
posted @ 2017-01-17 15:56 2BiTT 阅读(412) 评论(0) 推荐(0)
摘要: 转自:http://www.ibm.com/developerworks/cn/web/1103_zhaoct_recommstudy1/index.html 探索推荐引擎内部的秘密,第 1 部分: 推荐引擎初探 转自:http://www.ibm.com/developerworks/cn/web 阅读全文
posted @ 2017-01-17 15:15 2BiTT 阅读(428) 评论(0) 推荐(0)
摘要: 好久不用mysql,今天突然想用的时候, mysql -uroot -p 直接报了下面的错误 ERROR 2002 (HY000): Can't connect to local MySQL server through socket '/tmp/mysql.sock' (2) mac可以在设置里面 阅读全文
posted @ 2016-10-27 11:07 2BiTT 阅读(4196) 评论(0) 推荐(0)
摘要: 前面说了那么多,一直围绕着分类问题讨论,下面我们开始学习回归树吧, cart生成有两个关键点 如何评价最优二分结果 什么时候停止和如何确定叶子节点的值 cart分类树采用gini系数来对二分结果进行评价,叶子节点的值使用多数表决,那么回归树呢?我们直接看之前的一个数据集(天气与是否出去玩,是否出去玩 阅读全文
posted @ 2016-10-24 17:53 2BiTT 阅读(9204) 评论(1) 推荐(0)
摘要: 在之前的决策树到集成学习里我们说了决策树和集成学习的基本概念(用了adaboost昨晚集成学习的例子),其后我们分别学习了决策树分类原理和adaboost原理和实现, 上两篇我们学习了cart(决策分类树),决策分类树也是决策树的一种,也是很强大的分类器,但是cart的深度太深,我们可以指定cart 阅读全文
posted @ 2016-10-23 22:02 2BiTT 阅读(6197) 评论(0) 推荐(0)
摘要: 上一篇我们学习和实现了CART(分类回归树),不过主要是针对离散值的分类实现,下面我们来看下连续值的cart分类树如何实现 思考连续值和离散值的不同之处: 二分子树的时候不同:离散值需要求出最优的两个组合,连续值需要找到一个合适的分割点把特征切分为前后两块 这里不考虑特征的减少问题 切分数据的不同: 阅读全文
posted @ 2016-10-20 16:15 2BiTT 阅读(5296) 评论(1) 推荐(0)
摘要: 前面我们了解了决策树和adaboost的决策树墩的原理和实现,在adaboost我们看到,用简单的决策树墩的效果也很不错,但是对于更多特征的样本来说,可能需要很多数量的决策树墩 或许我们可以考虑使用更加高级的弱分类器,下面我们看下CART(Classification And Regression 阅读全文
posted @ 2016-10-19 22:19 2BiTT 阅读(19190) 评论(3) 推荐(0)
上一页 1 2 3 4 5 6 7 8 ··· 14 下一页