07 2018 档案

摘要:什么是决策树 什么是决策树 什么是决策树 非参数学习方法 可以解决分类问题 天然可以解决多分类问题 也可以解决回归问题 非常好的可解释性 复杂度 预测:O(logm)训练: O(n*m*logm)剪枝:降低复杂度,解决过拟合 import numpy as np import matplotlib. 阅读全文
posted @ 2018-07-30 18:05 家迪的家 阅读(340) 评论(0) 推荐(0)
摘要:浅层神经网络: 神经网络的输出 神经网络的输出 神经网络的输出 神经网络的输出 矩阵公式:输出=激活函数(输入x权重+偏差) 矩阵公式:输出=激活函数(输入x权重+偏差) 矩阵公式:输出=激活函数(输入x权重+偏差) 矩阵公式:输出=激活函数(输入x权重+偏差) 多层感知器识别手写数字: 关键点: 阅读全文
posted @ 2018-07-26 11:54 家迪的家 阅读(331) 评论(0) 推荐(0)
摘要:多项式回归:升维 多项式回归:升维 多项式回归:升维 原有数据特征下新增维度 # 数据 import numpy as np import matplotlib.pyplot as plt ​ x = np.random.uniform(-3,3,size=100) X = x.reshape(-1 阅读全文
posted @ 2018-07-20 14:06 家迪的家 阅读(421) 评论(0) 推荐(0)
摘要:经检测速度大幅度上升,不枉费我折腾了这么久,最坑的就是网上教程、书都没有写将cuda的bin加入全局变量,还是根据报错信息推出来的。 1.cuda9.0下载安装 https://developer.nvidia.com/cuda-90-download-archive?target_os=Windo 阅读全文
posted @ 2018-07-18 11:41 家迪的家 阅读(1562) 评论(0) 推荐(0)
摘要:梯度下降法 在使用梯度下降法前,最好进行数据归一化 不是一个机器学习算法 是一种基于搜索的最优化方法 作用:最小化损失函数 梯度上升法,最大化一个效用函数 η称为学习率 η的值影响获得最优解的速度 η取值不合适甚至得不到最优解 η是梯度下降法的一个超参数 优势 特征越多的情况下,梯度下降相比于正规方 阅读全文
posted @ 2018-07-10 22:20 家迪的家 阅读(476) 评论(0) 推荐(0)
摘要:KNN 算法介绍: 缺点: 对一个算法的掌握无非知其然,也知其所以然 使用scikit中的KNN: 自己实现KNN 分类器: 调用: 超参数和模型参数: 如何寻找好的超参数 明可夫斯基距离 当p的值为1时,则是曼哈顿距离,当p为2时则是欧拉距离 数据归一化: 测试数据归一化 使用StandardSc 阅读全文
posted @ 2018-07-05 23:02 家迪的家 阅读(305) 评论(0) 推荐(0)
摘要:线性回归算法介绍 线性回归算法介绍 线性回归算法介绍 线性回归算法介绍 解决回归问题 思想简单,实现容易 许多强大的非线性模型的基础 结果具有很好的解释性 蕴含机器学习中很多重要的思想 解决回归问题 思想简单,实现容易 许多强大的非线性模型的基础 结果具有很好的解释性 蕴含机器学习中很多重要的思想 阅读全文
posted @ 2018-07-04 17:53 家迪的家 阅读(229) 评论(0) 推荐(0)
摘要:理解算法确实是欲速则不达,唯有一步一步慢慢看懂,然后突然觉得写的真的太好了,那才是真的有所理解了。 Adaboost的两点关键点: 1. 如何根据弱模型的表现更新训练集的权重; 2. 如何根据弱模型的表现决定弱模型的话语权 算法步骤: 从训练数据中训练出一系列的弱分类器,然后把这些弱分类器集成为一个 阅读全文
posted @ 2018-07-02 09:31 家迪的家 阅读(289) 评论(0) 推荐(0)