随笔分类 -  机器学习

摘要:似然与概率 在统计学中,似然函数(likelihood function,通常简写为likelihood,似然)是一个非常重要的内容,在非正式场合似然和概率(Probability)几乎是一对同义词,但是在统计学中似然和概率却是两个不同的概念。概率是在特定环境下某件事情发生的可能性,也就是结果没有产 阅读全文
posted @ 2020-01-06 09:37 油闷大虾啊 阅读(806) 评论(0) 推荐(0)
摘要:对估计器的指定参数值穷举搜索。寻找合适的参数,GRIDSCACHCV实现了一个“拟合”和“得分”方法。在所使用的估计器中实现了“预测”、“预测函数”、“决策函数”、“变换”和“逆变换”。应用这些方法的估计器的参数通过参数网格上的交叉验证网格搜索来优化。 用法 sklearn.model_select 阅读全文
posted @ 2019-12-23 09:33 油闷大虾啊 阅读(986) 评论(0) 推荐(0)
摘要:accuracy_score分类准确率分数是指所有分类正确的百分比。分类准确率这一衡量分类器的标准比较容易理解,但是它不能告诉你响应值的潜在分布,并且它也不能告诉你分类器犯错的类型。 形式:sklearn.metrics.accuracy_score(y_true, y_pred, normaliz 阅读全文
posted @ 2019-12-22 11:23 油闷大虾啊 阅读(1348) 评论(0) 推荐(0)
摘要:import numpy as np import pandas as pd from pandas import Series,DataFrame 一、透视表(pivotTab) 透视表就是将指定原有DataFrame的列分别作为行索引和列索引,然后对指定的列应用聚集函数(默认情况下式mean函数 阅读全文
posted @ 2019-12-22 08:54 油闷大虾啊 阅读(733) 评论(0) 推荐(0)
摘要:sklearn.model_selection.train_test_split 用法在使用python做机械学习时候,为了制作训练数据(training samples)和测试数据(testing samples),常使用sklearn里面的sklearn.model_selection.trai 阅读全文
posted @ 2019-12-22 08:42 油闷大虾啊 阅读(1119) 评论(0) 推荐(0)
摘要:最近在学习支持向量机相关的知识,发现一篇博客介绍的非常详细,包括支持向量机原理,核函数及公式推导,因此收藏。 https://blog.csdn.net/macyang/article/details/38782399 作者:July、pluskid ;致谢:白石、JerryLead出处:结构之法算 阅读全文
posted @ 2019-12-06 10:56 油闷大虾啊 阅读(886) 评论(0) 推荐(0)
摘要:一、如何改进一个机器学习算法假设你已经训练出一个机器学习算法,但是效果不太好,那么有以下几种改进方法:1、获得更多的训练数据2、选用更少的特征3、增加特征量4、增加高次项5、增大或减小正则化参数lambda的值很多人只是随机选择上述方法的一种,即浪费时间又没有效果。所以接下来会介绍模型的评估及机器学 阅读全文
posted @ 2019-12-01 19:02 油闷大虾啊 阅读(342) 评论(0) 推荐(0)
摘要:反向传播算法是求代价函数小时参数θ的一种算法。 以监督学习为例,假设我们有训练样本集 ,那么神经网络算法能够提供一种复杂且非线性的假设模型 ,它具有参数 ,可以以此参数来拟合我们的数据。 为了描述神经网络,我们先从最简单的神经网络讲起,这个神经网络仅由一个“神经元”构成,以下即是这个“神经元”的图示 阅读全文
posted @ 2019-11-30 20:31 油闷大虾啊 阅读(437) 评论(0) 推荐(0)
摘要:1.引自https://www.cnblogs.com/bnuvincent/p/9695666.html 2. 基本原理 Logistic Regression和Linear Regression的原理是相似的,按照我自己的理解,可以简单的描述为这样的过程: (1)找一个合适的预测函数(Andre 阅读全文
posted @ 2019-11-29 16:58 油闷大虾啊 阅读(322) 评论(0) 推荐(0)
摘要:正规方程推导过程 参考:https://blog.csdn.net/chenlin41204050/article/details/78220280 多变量线性回归代价函数为: 其中: 正规方程是通过求解下面的方程来找出使得代价函数最小的参数: 设有m个训练实例,每个实例有n个特征,则训练实例集为: 阅读全文
posted @ 2019-11-29 13:23 油闷大虾啊 阅读(809) 评论(0) 推荐(0)
摘要:hθ(x)是一个假设函数,我们要求得参数向量θ使得损失函数J(θ)最低,我们可以看出,参数θ向量中包含多个变量(θ0,θ1,θ2,θ3),我们可以先选取一个参数,然后把 其他参数暂时作为常量,对J(θ)求导,得到改参数变量的下降方向,然后乘以学习系数便得到下降的步宽。利用以下公式更新参数: 也就是: 阅读全文
posted @ 2019-11-28 23:43 油闷大虾啊 阅读(574) 评论(0) 推荐(0)