上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 34 下一页
摘要: sklearn中实现随机梯度下降法 随机梯度下降法是一种根据模拟退火的原理对损失函数进行最小化的一种计算方式,在sklearn中主要用于多元线性回归算法中,是一种比较高效的最优化方法,其中的梯度下降系数(即学习率eta)随着遍历过程的进行在不断地减小。另外,在运用随机梯度下降法之前需要利用sklea 阅读全文
posted @ 2019-08-07 14:11 The-Chosen-One 阅读(3861) 评论(0) 推荐(0)
摘要: 梯度下降法的python代码实现(多元线性回归最小化损失函数) 1、梯度下降法主要用来最小化损失函数,是一种比较常用的最优化方法,其具体包含了以下两种不同的方式:批量梯度下降法(沿着梯度变化最快的方向进行搜索最小值)和随机梯度下降法(主要随机梯度下降,通过迭代运算,收敛到最小值) 2、随机梯度与批量 阅读全文
posted @ 2019-08-06 20:49 The-Chosen-One 阅读(5354) 评论(1) 推荐(1)
摘要: //2019.08.06 机器学习算法中的梯度下降法(gradient descent)1、对于梯度下降法,具有以下几点特别说明:(1)不是一种机器学习算法,不可以解决分类或者回归问题;(2)是一种基于搜索的最优化方法;(3)作用是最小化损失函数;(4)梯度上升法:最大化效用函数。2、梯度下降法就是 阅读全文
posted @ 2019-08-06 20:36 The-Chosen-One 阅读(2499) 评论(0) 推荐(0)
摘要: 1、对于多元线性回归算法,它对于数据集具有较好的可解释性,我们可以对比不过特征参数的输出系数的大小来判断它对数据的影响权重,进而对其中隐含的参数进行扩展和收集,提高整体训练数据的准确性。 2、多元回归算法的数学原理及其底层程序编写如下: 根据以上的数学原理可以从底层封装编写整体的多元线性回归算法如下 阅读全文
posted @ 2019-08-05 14:29 The-Chosen-One 阅读(1695) 评论(0) 推荐(0)
摘要: 对于多元线性回归算法,它对于数据集具有较好的可解释性,我们可以对比不过特征参数的输出系数的大小来判断它对数据的影响权重,进而对其中隐含的参数进行扩展和收集,提高整体训练数据的准确性。整体实现代码如下所示:#1-1导入相应的基础数据集模块import numpy as npimport matplot 阅读全文
posted @ 2019-08-05 14:18 The-Chosen-One 阅读(21602) 评论(0) 推荐(1)
摘要: 1、k近邻算法是学习机器学习算法最为经典和简单的算法,它是机器学习算法入门最好的算法之一,可以非常好并且快速地理解机器学习的算法的框架与应用。它是一种经典简单的分类算法,当然也可以用来解决回归问题。2、kNN机器学习算法具有以下的特点:(1)思想极度简单(2)应用的数学知识非常少(3)解决相关问题的 阅读全文
posted @ 2019-08-05 14:12 The-Chosen-One 阅读(5372) 评论(0) 推荐(0)
摘要: 多元线性回归算法和正规方程解 ——燕江依/2019.08.05 1、对于多元线性回归算法,它对于数据集具有较好的可解释性,我们可以对比不过特征参数的输出系数的大小来判断它对数据的影响权重,进而对其中隐含的参数进行扩展和收集,提高整体训练数据的准确性。 2、对于KNN算法和多元线性回归算法对比可以知道 阅读全文
posted @ 2019-08-05 13:54 The-Chosen-One 阅读(1864) 评论(0) 推荐(0)
摘要: //2019.08.04#线性回归算法基础入门(Linear Regression)1、线性回归算法是一种非常典型的解决回归问题的监督学习算法,它具有以下几个特点:(1)典型的回归算法,可以解决实际中的回归问题;(2)思想简单,容易实现;(3)是许多强大的非线性算法模型的基础;(4)结果具有很好的可 阅读全文
posted @ 2019-08-04 19:28 The-Chosen-One 阅读(1989) 评论(0) 推荐(0)
摘要: Python如何输出矩阵的行数与列数? 对于pyhton里面所导入或者定义的矩阵或者表格数据,想要获得矩阵的行数和列数有以下方法: 1、利用shape函数输出矩阵的行和列 x.shape函数可以输出一个元组(m,n),其中元组的第一个数m表示矩阵的行数,元组的第二个数n为矩阵的列数 具体代码如下: 阅读全文
posted @ 2019-08-04 14:59 The-Chosen-One 阅读(55172) 评论(4) 推荐(1)
摘要: 最小二乘法的数学原理推导(机器学习线性回归) ——燕江依/2019.08.04 对于简单线性回归问题,即数据特征只有一个的基础数据集,要使得损失函数(这里是指真值与预测值之间误差的平方)最小,从而求得最优化的参数a和b,这个具体方法称为最小二乘法,利用最小二乘法,可以得到最佳的参数a和b的计算式,如 阅读全文
posted @ 2019-08-04 14:13 The-Chosen-One 阅读(1786) 评论(0) 推荐(0)
上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 34 下一页