上一页 1 ··· 35 36 37 38 39 40 41 42 43 ··· 49 下一页

2018年7月4日

sklearn学习9----LDA(discriminat_analysis)

摘要: 1、导入模块 http://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.Li 阅读全文

posted @ 2018-07-04 15:57 吱吱了了 阅读(1306) 评论(0) 推荐(0)

2018年7月3日

树(8)----路径和

摘要: 1、输出树的所有路径:(前序遍历,深度遍历的特例) 1、二叉树中的最大路径和 给定一个非空二叉树,返回其最大路径和。 本题中,路径被定义为一条从树中任意节点出发,达到任意节点的序列。该路径至少包含一个节点,且不一定经过根节点。 示例 1: 示例 2: ############超出时间限制 2、路径求 阅读全文

posted @ 2018-07-03 19:47 吱吱了了 阅读(569) 评论(0) 推荐(0)

2018年7月1日

树(7)-----二叉树的序列化和反序列化

摘要: 1、序列化:层次遍历【用字符串来存储】 2、反序列化:用队列存已经建立的节点,从序列化后的字符串列表取数来建立树 二、前序遍历的序列化: 代码: 反序列化: 3、前序遍历和中序遍历反序列化 阅读全文

posted @ 2018-07-01 15:16 吱吱了了 阅读(218) 评论(0) 推荐(0)

2018年6月30日

xgboost学习

摘要: 1、原理 https://www.cnblogs.com/zhouxiaohui888/p/6008368.html 2、实战 xgboost中比较重要的参数介绍: (1)学习率:learning rate :一般设置比较低,0.1以下 (2)tree: max_depth min_child_we 阅读全文

posted @ 2018-06-30 21:14 吱吱了了 阅读(333) 评论(0) 推荐(0)

2018年6月24日

Python笔记24-----迭代器、生成器的使用(如嵌套列表的展开、树的遍历等)

摘要: 一、递归yield使用 可把yield当做return,其作用是把一个函数变成一个迭代器。 1、嵌套列表展开 def flatten(nested): if type(nested)==list: for sublist in nested: for i in flatten(sublist): y 阅读全文

posted @ 2018-06-24 17:36 吱吱了了 阅读(781) 评论(0) 推荐(0)

2018年6月21日

算法20-----卡诺兰数

摘要: 1、卡诺兰概念: 卡诺兰数列的递推关系:h(n)= h(0)*h(n-1) + h(1)*h(n-2) + ... + h(n-1)h(0) (其中n>=2),这是n阶递推关系; 数列的通项:F(n)=C(2n,n)/(n+1) 2、可以解决的问题: 参考链接:https://www.cnblogs 阅读全文

posted @ 2018-06-21 19:31 吱吱了了 阅读(323) 评论(0) 推荐(0)

2018年6月17日

正则表达式小知识点

摘要: 1、()、[ ] 、{ } 小括号、中括号、大括号区别 小括号就是括号内看成一个整体 ,中括号就是匹配括号内的其中一个,大括号就是匹配几次 {n}n是一个非负整数。匹配确定的n次。例如,“o{2}”不能匹配“Bob”中的“o”,但是能匹配“food”中的两个o。 {n,}n是一个非负整数。至少匹配n 阅读全文

posted @ 2018-06-17 13:38 吱吱了了 阅读(258) 评论(0) 推荐(0)

贝叶斯算法

摘要: 1、贝叶斯要解决的问题: 正向概率:已知袋子中有N个白球和M个黑球,摸到白球的概率多大? 逆向概率:事先不知道袋子中黑白球的比例,通过摸出来球的颜色来判断球的比例。 贝叶斯是在概率的框架下实施决策的节本方法。对分类来说,在所有相关概率都已知的理想情形下,贝叶斯考虑如何基于这些概率和误判损失来按着最优 阅读全文

posted @ 2018-06-17 11:55 吱吱了了 阅读(482) 评论(0) 推荐(0)

2018年6月16日

sklearn学习8-----GridSearchCV(自动调参)

摘要: 一、GridSearchCV介绍: 自动调参,适合小数据集。相当于写一堆循环,自己设定参数列表,一个一个试,找到最合适的参数。数据量大可以使用快速调优的方法 坐标下降【贪心,拿当前对模型影响最大的参数调优,直到最优,但可能获得的是全局最优】。 二、参数使用 class sklearn.model_s 阅读全文

posted @ 2018-06-16 11:29 吱吱了了 阅读(13328) 评论(0) 推荐(0)

2018年6月10日

sklearn学习7-----决策树(tree)

摘要: 1、使用示例 2、树模型参数:【很多参数都是用来限制树过于庞大,即担心其过拟合】 # 1.criterion gini or entropy:用什么作为衡量标准 ( 熵值或者Gini系数 )。 # 2.splitter best or random 前者是在所有特征中找最好的切分点 后者是在部分特征 阅读全文

posted @ 2018-06-10 10:45 吱吱了了 阅读(508) 评论(0) 推荐(0)

上一页 1 ··· 35 36 37 38 39 40 41 42 43 ··· 49 下一页

导航