摘要: 本文以两个具体例子详细剖析动态规划算法设计思想,主要参考圣经《算法导论》,加上自己的一些理解,主要是附上了一些具体实现过程,所以希望能对大家有所帮助。 #_*_ coding:utf-8 _*_ import numpy as np def MemoizedCutRodAux(p,n,r,s): i 阅读全文
posted @ 2017-04-06 19:00 一逍倾城 阅读(1031) 评论(0) 推荐(0) 编辑
摘要: ★代码实现(python): #-*- coding:utf-8 -*- from copy import copy def add(p,x,c): #对应元素分别相加,p中每个元素都是元组,x也是一个元组 resultlist=[(i[0]+x[0],i[1]+x[1]) for i in p i 阅读全文
posted @ 2017-04-06 18:32 一逍倾城 阅读(2982) 评论(0) 推荐(0) 编辑
摘要: #-*- coding:utf-8 -*- import numpy as np def package1(w,v,c,n):#求取m和choose函数 m=np.zeros((n+1,c+1),dtype=int) choose=np.zeros((n+1,c+1),dtype=bool) for 阅读全文
posted @ 2017-04-05 21:06 一逍倾城 阅读(5206) 评论(1) 推荐(0) 编辑
摘要: 算法原理 K近邻是机器学习中常见的分类方法之间,也是相对最简单的一种分类方法,属于监督学习范畴。其实K近邻并没有显式的学习过程,它的学习过程就是测试过程。K近邻思想很简单:先给你一个训练数据集D,包括每个训练样本对应的标签。然后给你一个新的测试样本T,问你测试样本的标签预测是什么,K近邻的方法就是找 阅读全文
posted @ 2017-01-17 13:41 一逍倾城 阅读(1001) 评论(0) 推荐(0) 编辑
摘要: sklearn-SVC实现与类参数 SVC继承了父类BaseSVC SVC类主要方法: ★__init__() 主要参数: C: float参数 默认值为1.0 错误项的惩罚系数。C越大,即对分错样本的惩罚程度越大,因此在训练样本中准确率越高,但是泛化能力降低,也就是对测试数据的分类准确率降低。相反 阅读全文
posted @ 2017-04-12 17:22 一逍倾城 阅读(17591) 评论(0) 推荐(1) 编辑
摘要: SVM核函数及sklearn实现SVM 在SVM中,其中最重要的也是最核心的就是核函数的选取和参数选择,当然这个需要大量的经验来支撑。今天我们就是抛砖引玉形象的讲解一下什么是核函数,及在SVM中在哪用到。 我们知道,SVM相对感知机而言,它可以解决线性不可分的问题,那么它是怎么解决的呢?它的解决思想 阅读全文
posted @ 2017-04-11 19:22 一逍倾城 阅读(31756) 评论(0) 推荐(3) 编辑
摘要: 基于scikit-learn包实现机器学习之KNN(K近邻) scikit-learn(简称sklearn)是目前最受欢迎,也是功能最强大的一个用于机器学习的Python库件。它广泛地支持各种分类、聚类以及回归分析方法比如支持向量机、随机森林、DBSCAN等等,由于其强大的功能、优异的拓展性以及易用 阅读全文
posted @ 2017-04-09 10:56 一逍倾城 阅读(41150) 评论(6) 推荐(2) 编辑