随笔分类 -  3机器学习-经典算法与应用

knn,线性回归,梯度下降,支持向量机,决策树
摘要:, 少数服从多数:hard voting soft_voting , , , , , , ,, , , 此时便可以不使用train_test_split了 , Bagging:使用随机取样的方式包括在特征空间中随机取特征的方式来创建诸多的子模型然后将他们集成在一起 , , , , 阅读全文
posted @ 2020-04-28 23:13 aggressive2019 阅读(124) 评论(0) 推荐(0)
摘要:什么是决策树: , , , , , 朝着信息熵降低的方向,即让系统变得更加确定 def split(X,y,d,value): # 每个节点上的维度d,相应的阈值:value index_a=(X[:,d]<=value) index_b=(X[:,d]>value) return X[index_ 阅读全文
posted @ 2020-04-25 23:11 aggressive2019 阅读(147) 评论(0) 推荐(0)
摘要:支持向量机(support vector machines)是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。由简至繁的模型包括: 当训练样本线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机; 当训练样本近似线性可分时,通 阅读全文
posted @ 2020-04-24 20:42 aggressive2019 阅读(136) 评论(0) 推荐(0)
摘要:分类算法的评价 分类准确度的问题 , , 精准率和召回率 , , , , , , Precision和Recall的平衡 , , , , , ,, , , ROC,AUC用来比较两个模型的优劣 import numpy as np from sklearn import datasets digit 阅读全文
posted @ 2020-04-22 21:42 aggressive2019 阅读(137) 评论(0) 推荐(0)
摘要:问题:线性回归要求假设我们的数据背后存在线性关系; , 如果将x的平方理解成一个特征,x理解成另一个特征;本来只有一个特征x,现在看成有两个特征的数据集,多了一个特征,就是x的平方,其实式子本身依然是一个线性回归的式子,但是从x 的角度来看,也就是所谓的非线性方程,这样的方式就叫做多项式回归 PCA 阅读全文
posted @ 2020-04-18 15:45 aggressive2019 阅读(325) 评论(0) 推荐(0)
摘要:, , ,, , , , 阅读全文
posted @ 2020-04-13 23:06 aggressive2019 阅读(314) 评论(0) 推荐(0)
摘要:逻辑回归:实际解决分类问题 回归怎么解决分类问题?将样本的特征和样本发生的概率联系起来,概率是一个数,由于概率是一个数,所以可以管它叫做回归问题。对于机器学习算法来说,本质就是 求出一个函数小f,如果此时有一个样本x,经过f的运算之后就会得到一个预测值,通常称之为y。y的值实际上就是本身我们关心的那 阅读全文
posted @ 2020-03-28 13:22 aggressive2019 阅读(150) 评论(0) 推荐(0)
摘要:主成分分析法:主要作用是降维 疑似右侧比较好? 第三种降维方式: 问题:????? 方差:描述样本整体分布的疏密的指标,方差越大,样本之间越稀疏;越小,越密集 第一步: 总结: 问题:????怎样使其最大 变换后: 最后的问题:???? 注意区别于线性回归 使用梯度上升法解决PCA问题: impor 阅读全文
posted @ 2020-03-22 22:15 aggressive2019 阅读(135) 评论(0) 推荐(0)
摘要:梯度下降法:(Gradient Descent),梯度法用来求一个函数的最优值 , 如果第一个点导数不为零的话,那么这点肯定不在极值点上! 有时候一上来η的取值不是很准确,需要通过调参的方式来找到适合的η值 , , import numpy as np import matplotlib.pyplo 阅读全文
posted @ 2020-01-17 21:29 aggressive2019 阅读(134) 评论(0) 推荐(0)
摘要:1.解决回归问题 2.思想简单,实现容易 3.许多强大的非线性模型的基础 4.结果具有很好的可解释性 5.蕴含机器学习中的很多重要思想 所谓的建模的过程,其实就是找到一个模型最大程度的拟合我们的数据。在线性回归算法中,这个模型就是一个直线方程,所谓的最大拟合我们的数据,其实本质是找到一个函数 ,在这 阅读全文
posted @ 2020-01-15 21:28 aggressive2019 阅读(205) 评论(0) 推荐(0)
摘要:, , No.1. 数据归一化的目的 数据归一化的目的,就是将数据的所有特征都映射到同一尺度上,这样可以避免由于量纲的不同使数据的某些特征形成主导作用。 No.2. 数据归一化的方法 数据归一化的方法主要有两种:最值归一化和均值方差归一化。 最值归一化的计算公式如下: 最值归一化的特点是,可以将所有 阅读全文
posted @ 2020-01-14 14:03 aggressive2019 阅读(386) 评论(0) 推荐(0)
摘要:思想极度简单 应用数学知识少 效果好(缺点?) 可以解释机器学习算法使用过程中的很多细节问题 更完整的刻画机器学习应用的流程 distances = [] for x_train in X_train: d=sqrt(np.sum((x_train-x)**2)) distances.append( 阅读全文
posted @ 2019-12-17 20:08 aggressive2019 阅读(210) 评论(0) 推荐(0)
摘要:机器学习的基础概念 关于数据: 大写字母X表示矩阵,小写字母y表示向量 机器学习的基本任务:分类,回归 分类: 二分类: 手写数字识别:多分类任务 数字识别, 图像识别, 判断发放给客户信用卡的风险评级, 回归: 监督学习:分类问题,回归问题 机器学习方法的分类: 监督学习,费监督学习,半监督学习, 阅读全文
posted @ 2019-12-15 22:41 aggressive2019 阅读(195) 评论(0) 推荐(0)