上一页 1 ··· 8 9 10 11 12 13 14 15 下一页

2019年12月11日

Adaboost的python实现

摘要: 不要总是掉包欧,真的丢人啊,一起码起来! '''函数的功能:单层决策树分类函数参数说明: xMat:数据矩阵 i:第i列,第几个特征 Q:阈值返回分类结果: re'''import numpy as npimport pandas as pddef classify0(xMat,i,Q,S): re 阅读全文

posted @ 2019-12-11 22:58 limingqi 阅读(726) 评论(0) 推荐(0)

2019年12月10日

如何写出高质量的Python代码--做好优化--改进算法点滴做起

摘要: 小伙伴你的程序还是停留在糊墙吗?优化代码可以显示程序员的素质欧! 普及一下基础了欧: 一层for简写:y = [1,2,3,4,5,6],[(i*2) for i in y ] 会输出 [2, 4, 6, 8, 10, 12] ,标准形式为: [ 对i的操作 for i in 列表 ] 两层for循 阅读全文

posted @ 2019-12-10 15:02 limingqi 阅读(901) 评论(0) 推荐(0)

2019年12月9日

leetcode--200--python(深度广度优先遍历实现代码)

摘要: 点滴积累,厚积薄发,做好每一天,向时间要效率,向生命要质量。 一、深度优先搜索和广度优先搜索DFS(Depth-First-Search),是盲目搜索算法的一种。常常用在树的遍历及图的处理上。假设当前搜索的节点记为k,深度优先搜索表示,继续探寻k节点的所有的边。搜索过程中,遇到满足条件的k+1节点, 阅读全文

posted @ 2019-12-09 23:06 limingqi 阅读(1174) 评论(0) 推荐(0)

2019年12月6日

聚类算法总结以及python代码实现

摘要: 一、聚类(无监督)的目标 使同一类对象的相似度尽可能地大;不同类对象之间的相似度尽可能地小。 二、层次聚类 层次聚类算法实际上分为两类:自上而下或自下而上。自下而上的算法在一开始就将每个数据点视为一个单一的聚类,然后依次合并(或聚集)类,直到所有类合并成一个包含所有数据点的单一聚类。因此,自下而上的 阅读全文

posted @ 2019-12-06 17:54 limingqi 阅读(13355) 评论(0) 推荐(0)

2019年12月3日

leetcode算法题121-123 --78 --python版本

摘要: 给定一个数组 nums,编写一个函数将所有 0 移动到数组的末尾,同时保持非零元素的相对顺序。 实例输入: [0,1,0,3,12] 输出: [1,3,12,0,0] 说明: 必须在原数组上操作,不能拷贝额外的数组。 尽量减少操作次数。 思路:从左到右遍历数组存在数字把是0的逐一的替换,左右更替,最 阅读全文

posted @ 2019-12-03 13:48 limingqi 阅读(513) 评论(0) 推荐(0)

2019年12月2日

spark基础知识

摘要: https://github.com/lmq070466/ML/tree/master/analysis_and_prediction_for_diabetes-master更新开源了糖尿病项目以及自己的论文。 更新spark基础知识 阅读全文

posted @ 2019-12-02 14:01 limingqi 阅读(165) 评论(0) 推荐(0)

linux实践中常用命令

摘要: (1)nohup nohup命令用于不挂断地运行命令(关闭当前session不会中断改程序,只能通过kill等命令删除)。使用nohup命令提交作业,那么在缺省情况下该作业的所有输出都被重定向到一个名为nohup.out的文件中,除非另外指定了输出文件。 (2)&&用于后台执行程序,但是关闭当前se 阅读全文

posted @ 2019-12-02 13:56 limingqi 阅读(179) 评论(0) 推荐(0)

2019年11月30日

信息熵

摘要: 信息熵一直在机器学习的领域兴风作浪,给出最简单最直接的方式认识信息熵 阅读全文

posted @ 2019-11-30 22:43 limingqi 阅读(348) 评论(0) 推荐(0)

2019年11月19日

逻辑回归简单多变不易把握、特征离散化原因、最大熵模型

摘要: Logistic Regression 虽然被称为回归,但其实际上是分类模型,并常用于二分类。Logistic Regression 因其简单、可并行化、可解释强深受工业界喜爱。Logistic 回归的本质是:假设数据服从这个分布,然后使用极大似然估计做参数的估计。 之前说到 Logistic 回归 阅读全文

posted @ 2019-11-19 13:55 limingqi 阅读(1034) 评论(0) 推荐(0)

特征选择

摘要: 特征选择 特征选择方法是从原始特征数据集中选择子集,是一种包含的关系,没有更改原始的特征空间。主要是为了减少特征数量、降维,减少过拟合使模型泛化能力更强以及增强对特征与特征值之间的理解。 (1) Filter方法:对每一维的特征“打分”,即给每一维的特征赋予权重,这样的权重就代表着该维特征的重要性, 阅读全文

posted @ 2019-11-19 12:43 limingqi 阅读(439) 评论(0) 推荐(0)

上一页 1 ··· 8 9 10 11 12 13 14 15 下一页

导航