2022年5月19日

|NO.Z.00015|——————————|BigDataEnd|——|Arithmetic&Machine.v15|——|Machine:逻辑回归算法.v03|

摘要: 一、逻辑回归的Scikit-Learn实现 ### 逻辑回归的Scikit-Learn实现 ~~~ # 参数详解 class sklearn.linear_model.LogisticRegression (penalty=’l2’, dual=False, tol=0.0001, C=1.0,fi 阅读全文

posted @ 2022-05-19 22:04 yanqi_vip 阅读(31) 评论(0) 推荐(0)

|NO.Z.00014|——————————|BigDataEnd|——|Arithmetic&Machine.v14|——|Machine:逻辑回归算法.v02|

摘要: 一、梯度下降 ### 梯度下降(Gradient Descent) ~~~ 在求解机器学习算法的模型参数,即无约束优化问题时, ~~~ 梯度下降(Gradient Descent)是最常用的方法之一,接下来就对梯度下降进行介绍。 ### 梯度 ### 梯度下降和梯度上升 ~~~ 在机器学习算法中,在 阅读全文

posted @ 2022-05-19 22:03 yanqi_vip 阅读(26) 评论(0) 推荐(0)

|NO.Z.00012|——————————|BigDataEnd|——|Arithmetic&Machine.v12|——|Machine:监督学习算法.v11|

摘要: 一、扩展:岭回归和Lasso ### 扩展:岭回归和Lasso ~~~ # 解决共线性的问题的方法主要有以下三种: ~~~ 其⼀是在建模之前对各特征进行相关性检验,若存在多重共线性, ~~~ 则可考虑进⼀步对数据集进行SVD分解或PCA主成分分析, ~~~ 在SVD或PCA执行的过程中会对数据集进行 阅读全文

posted @ 2022-05-19 22:02 yanqi_vip 阅读(34) 评论(0) 推荐(0)

|NO.Z.00013|——————————|BigDataEnd|——|Arithmetic&Machine.v13|——|Machine:逻辑回归算法.v01|

摘要: 一、逻辑回归算法 ### 逻辑回归算法 ~~~ # 概述 ~~~ 分类技术是机器学习和数据挖掘应用中的重要组成部分。在数据科学中, 约70%的问题属于分类问题。 ~~~ 解决分类的算法也有很多种。 ~~~ 如:KNN,使距离计算来实现分类;决策树,通过构建直观易懂的树来实现分类。 ~~~ 这里我们要 阅读全文

posted @ 2022-05-19 22:02 yanqi_vip 阅读(33) 评论(0) 推荐(0)

|NO.Z.00010|——————————|BigDataEnd|——|Arithmetic&Machine.v10|——|Machine:监督学习算法.v09|

摘要: 一、多元线性回归Python实现 ### 多元线性回归Python实现 ~~~ # 利用矩阵乘法编写回归算法 ~~~ 多元线性回归的执行函数编写并不复杂,主要涉及大量的矩阵运算, ~~~ 需要借助Numpy中的矩阵数据格式来完成。首先执行标准化导入: import numpy as np impor 阅读全文

posted @ 2022-05-19 22:01 yanqi_vip 阅读(45) 评论(0) 推荐(0)

|NO.Z.00011|——————————|BigDataEnd|——|Arithmetic&Machine.v11|——|Machine:监督学习算法.v10|

摘要: 一、线性回归的Scikit-learn实现 ### 线性回归的Scikit-learn实现 ~~~ 使用scikit-learn算法库实现线性回归算法,并计算相应评价指标。 ~~~ 回顾前文介绍的相关知识进行下述计算。 from sklearn.linear_model import LinearR 阅读全文

posted @ 2022-05-19 22:01 yanqi_vip 阅读(36) 评论(0) 推荐(0)

|NO.Z.00007|——————————|BigDataEnd|——|Arithmetic&Machine.v07|——|Machine:监督学习算法.v06|

摘要: 一、分类模型的评估指标:样本不均匀问题 ### 分类模型的评估指标 ~~~ # 样本不均匀问题 ~~~ 对于分类问题,永远都逃不过的一个痛点就是样本不均衡问题。 ~~~ 样本不均衡是指在一组数据集中,标签的一类天生占有很大的比例, ~~~ 但我们有着捕捉出某种特定的分类的需求的状况。 ~~~ 比如, 阅读全文

posted @ 2022-05-19 22:00 yanqi_vip 阅读(45) 评论(0) 推荐(0)

|NO.Z.00008|——————————|BigDataEnd|——|Arithmetic&Machine.v08|——|Machine:监督学习算法.v07|

摘要: 一、决策树的算法评价 ### 决策树的算法评价 ~~~ # 决策树优点 ~~ 易于理解和解释,因为树木可以画出来被看见。 ~~ 需要很少的数据准备。其他很多算法通常都需要数据规范化,需要创建虚拟变量并删除空值等。 ~~~ 但请注意,sklearn 中的决策树模块不支持对缺失值的处理。 ~~ 使用树的 阅读全文

posted @ 2022-05-19 22:00 yanqi_vip 阅读(54) 评论(0) 推荐(0)

|NO.Z.00009|——————————|BigDataEnd|——|Arithmetic&Machine.v09|——|Machine:监督学习算法.v08|

摘要: 一、线性回归算法 ### 概述 ~~~ 在正式进入到回归分析的相关算法讨论之前, ~~~ 我们需要对有监督学习算法中的回归问题进行进一步的分析和理解。 ~~~ 虽然回归问题和分类问题同属于有监督学习范畴,但实际上,回归问题要远比分类问题更加复杂。 ~~~ 首先是关于输出结果的对比,分类模型最终输出结 阅读全文

posted @ 2022-05-19 22:00 yanqi_vip 阅读(34) 评论(0) 推荐(0)

|NO.Z.00006|——————————|BigDataEnd|——|Arithmetic&Machine.v06|——|Machine:监督学习算法.v05|

摘要: 一、使用SK-LEARN实现决策树:参数CRITERION ### 使用SK-LEARN实现决策树 ~~~ # 参数CRITERION ~~~ # criterion 这个参数是用来决定不纯度的计算方法。sklearn 提供了两种选择: ~~~ 输入 “entropy”,使用信息熵(Entropy) 阅读全文

posted @ 2022-05-19 21:59 yanqi_vip 阅读(41) 评论(0) 推荐(0)

|NO.Z.00005|——————————|BigDataEnd|——|Arithmetic&Machine.v05|——|Machine:监督学习算法.v04|

摘要: 一、决策树:决策树基本流程 ### 决策树 ~~~ # 决策树模型 ~~~ 树模型是有监督学习类算法中应用广泛的一类模型,同时可应用于分类问题和回归问题, ~~~ 其中用于解决分类问题的树模型常被称为分类树,而用于解决回归类问题的树模型被称作回归树。 ~~~ 树模型通过递归式切割的方法来寻找最佳分类 阅读全文

posted @ 2022-05-19 21:58 yanqi_vip 阅读(59) 评论(0) 推荐(0)

|NO.Z.00004|——————————|BigDataEnd|——|Arithmetic&Machine.v04|——|Machine:监督学习算法.v03|

摘要: 一、归一化 ### 归一化 ~~~ # 距离类模型归一化的要求 ~~~ 什么是归一化?我们把 X 放到数据框中来看一眼,你是否观察到,每个特征的均值差异很大? ~~~ 有的特征数值很大,有的特征数值很小,这种现象在机器学习中被称为"量纲不统一"。 ~~~ KNN 是距离类模型,欧氏距离的计算公式中存 阅读全文

posted @ 2022-05-19 21:57 yanqi_vip 阅读(32) 评论(0) 推荐(0)

|NO.Z.00003|——————————|BigDataEnd|——|Arithmetic&Machine.v03|——|Machine:监督学习算法.v02|

摘要: 一、选择最优K值 ### 选择最优K值 ~~~ KNN 中的 k 是一个超参数,所谓“超参数”,就是需要人为输入,算法不能通过直接计算得出的参数。 ~~~ KNN 中的 k 代表的是距离需要分类的测试点 x 最近的 k 个样本点, ~~~ 如果不输入这个值,那么算法中重要部分 “选出 k 个最近邻” 阅读全文

posted @ 2022-05-19 21:56 yanqi_vip 阅读(39) 评论(0) 推荐(0)

|NO.Z.00002|——————————|BigDataEnd|——|Arithmetic&Machine.v02|——|Machine:监督学习算法.v01|

摘要: 一、监督学习算法:KNN/K近邻算法:算法原理 ### KNN/K近邻算法 ~~~ # 算法原理 ~~~ 它的本质是通过距离判断两个样本是否相似,如果距离够近就认为他们足够相似属于同一类别。 ~~~ 当然只对比一个样本是不够的,误差会很大,我们需要找到离其最近的 k 个样本, ~~~ 并将这些样本称 阅读全文

posted @ 2022-05-19 21:56 yanqi_vip 阅读(40) 评论(0) 推荐(0)

|NO.Z.00001|——————————|BigDataEnd|——|Arithmetic&Machine.v01|——|Machine:机器学习算法体系|

摘要: 一、前言: 机器学习理论基础 ### 案例说明 ~~~ # 在一个酒吧里,吧台上摆着十杯几乎一样的红酒,老板跟你打趣说想不想来玩个游戏, ~~~ 赢了免费喝酒,输了付3倍酒钱,那么赢的概率是多少? ~~~ # 你是个爱冒险的人,果断说玩! ~~~ # 老板接着道:你眼前的这十杯红酒,每杯略不相同, 阅读全文

posted @ 2022-05-19 21:55 yanqi_vip 阅读(33) 评论(0) 推荐(0)

|NO.Z.00000|——————————|BigDataEnd|——————————————————————————————————————

摘要: NO: Walter Savage Landor:strove with none,for none was worth my strife.Nature I loved and, next to Nature, Art:I warm'd both hands before the fire of 阅读全文

posted @ 2022-05-19 21:54 yanqi_vip 阅读(12) 评论(0) 推荐(0)

|NO.Z.00006|——————————|BigDataEnd|——|Arithmetic&statistics.v02|——|statistical:spss25安装教程|

摘要: 一、安装spss_statistics ### 下载教程 ~~~ 官网地址:https://www.ibm.com/cn-zh/analytics/spss-statistics-software 二、安装spss25 path 三、启动spss 四、初始状态页面,试用期有效期5000天,足够!!! 阅读全文

posted @ 2022-05-19 21:51 yanqi_vip 阅读(71) 评论(0) 推荐(0)

|NO.Z.10000|——————————|BigDataEnd|——————————————————————————————————————

摘要: NO: Walter Savage Landor:strove with none,for none was worth my strife.Nature I loved and, next to Nature, Art:I warm'd both hands before the fire of 阅读全文

posted @ 2022-05-19 21:51 yanqi_vip 阅读(7) 评论(0) 推荐(0)

|NO.Z.00003|——————————|BigDataEnd|——|Arithmetic&statistics.v03|——|statistical:APP用户数预测|

摘要: 三、APP用户数预测 Walter Savage Landor:strove with none,for none was worth my strife.Nature I loved and, next to Nature, Art:I warm'd both hands before the f 阅读全文

posted @ 2022-05-19 21:50 yanqi_vip 阅读(12) 评论(0) 推荐(0)

|NO.Z.00005|——————————|BigDataEnd|——|Arithmetic&statistics.v01|——|statistical:基础|

摘要: 一、描述统计:变量测量尺度 ### 描述统计:变量测量尺度 ~~~ 定类尺度功能:分类作用,比如性别 ~~~ 定序尺度功能:分类、排序作用、比如喜欢的艺人、年级 ~~~ 定距尺度功能:分类、排序、加减、比如温度 ~~~ 定比尺度功能:分类、排序、加减、乘除 ~~~ # 定类与定序合成分类变量、定距与 阅读全文

posted @ 2022-05-19 21:50 yanqi_vip 阅读(30) 评论(0) 推荐(0)

导航