随笔分类 -  机器学习

上一页 1 2
神经网络入门——9.简单神经网络
摘要:最简单的神经网络 目前为止,我们接触的感知器的输出非 0 即 1,输出单元的输入经过了一个激活函数 f(h)f(h) 在此处就是指阶跃函数。 最简单的神经网络 目前为止,我们接触的感知器的输出非 0 即 1,输出单元的输入经过了一个激活函数 f(h)f(h) 在此处就是指阶跃函数。 最简单的神经网络 阅读全文
posted @ 2018-04-24 11:22 未完代码 阅读(1222) 评论(0) 推荐(0)
神经网络入门——8XOR感知器
摘要:XOR 感知器 XOR 感知器 XOR 感知器 XOR 感知器 XOR 感知器 XOR 感知器就是一个这样的逻辑门:输入相同返回 0 ,输入不同返回 1。与之前的感知器不同,这里并不是线性可分的。要处理这类较为复杂的问题,我们需要把感知器连接起来。 我们用 AND、NOT 和 OR 感知器来创建一个 阅读全文
posted @ 2018-04-24 11:10 未完代码 阅读(3319) 评论(0) 推荐(0)
神经网络入门——7or 感知器
摘要:OR 感知器 OR 感知器与 AND 感知器很类似,在下图中,OR 感知器与 AND 感知器有相同的分割线,只是 OR 感知器分割线下移了一段距离。对权重或者偏置做怎样的设置可以实现这个效果?用下面的 AND 感知器来创建一个 OR 感知器。 OR 感知器 OR 感知器与 AND 感知器很类似,在下 阅读全文
posted @ 2018-04-24 11:08 未完代码 阅读(779) 评论(0) 推荐(0)
神经网络入门——6and感知机
摘要:AND 感知器练习 AND 感知器练习 AND 感知器练习 AND 感知器练习 AND 感知器练习 AND 感知器的权重和偏置项是什么? 把权重(weight1, weight2)和偏置项 bias 设置成正确的值,使得 AND 可以实现上图中的运算。 AND 感知器的权重和偏置项是什么? 把权重( 阅读全文
posted @ 2018-04-24 11:05 未完代码 阅读(283) 评论(0) 推荐(0)
神经网络入门——5感知机
摘要:感知器 Perceptron 现在你看到了一个简单的神经网络如何做决策:输入数据,处理信息,然后给出一个结果作为输出!现在让我们深入这个大学录取的案例,来学习更多输入数据如何被处理。 数据,无论是考试成绩还是评级,被输入到一个相互连接的节点网络中。这些独立的节点被称作感知器 或者神经元。它们是构成神 阅读全文
posted @ 2018-04-24 11:03 未完代码 阅读(402) 评论(0) 推荐(0)
机器学习基础—集成学习Bagging 和 Boosting
摘要:集成学习 就是不断的通过数据子集形成新的规则,然后将这些规则合并。bagging和boosting都属于集成学习。集成学习的核心思想是通过训练形成多个分类器,然后将这些分类器进行组合。 所以归结为(1)训练样本数据如何选取? (2)分类器如何合并? 一、bagging bagging 通过将全部数据 阅读全文
posted @ 2018-03-15 14:29 未完代码 阅读(512) 评论(0) 推荐(0)
UDA机器学习基础—评估指标
摘要:这里举例说明 混淆矩阵 精确率 召回率 F1 阅读全文
posted @ 2018-03-07 11:35 未完代码 阅读(217) 评论(0) 推荐(0)
UDA机器学习基础—误差原因
摘要:1.模型误差产生的原因 (1)模型无法表示基本数据的复杂度,而造成偏差。 (2)因模型对训练它所用到的数据过度敏感造成的方差。 2.由偏差造成的误差——准确率和欠拟合 有足够数据表示模型,但是由于模型不够复杂,不能捕捉基本关系,因而造成误差。 这样一来模型会系统的错误表示数据,从而导致准确率降低,这 阅读全文
posted @ 2018-03-06 17:29 未完代码 阅读(378) 评论(0) 推荐(0)
UDA机器学习基础—交叉验证
摘要:交叉验证的目的是为了有在训练集中有更多的数据点,以获得最佳的学习效果,同时也希望有跟多的测试集数据来获得最佳验证。交叉验证的要点是将训练数据平分到k个容器中,在k折交叉验证中,将运行k次单独的试验,每一次试验中,你将挑选k个训练集中的一个作为验证集,剩下k-1个作为训练集,训练你的模型,用测试集测试 阅读全文
posted @ 2018-03-06 10:39 未完代码 阅读(267) 评论(0) 推荐(0)
UDA机器学习基础—异常值-安然数据处理
摘要:#!/usr/bin/python import pickle import sys import matplotlib.pyplot sys.path.append("../tools/") from feature_format import featureFormat, targetFeatureSplit ### read in data dictionary, convert t... 阅读全文
posted @ 2018-03-06 10:02 未完代码 阅读(656) 评论(0) 推荐(0)
用梯度下降算法求最值
摘要:1.梯度方向 对多元函数的参数求偏导,得到函数增加或减小最快的方向。具体来说,对于函数f(x,y),在点(x0,y0),沿着梯度向量的方向就是(∂f/∂x0, ∂f/∂y0)T的方向是f(x,y)增加最快的地方。 2.梯度下降算法过程如下: (1)随机初始值a0; (2)迭代ak+1=ak+skak 阅读全文
posted @ 2017-12-18 12:30 未完代码 阅读(416) 评论(0) 推荐(0)

上一页 1 2