0

BP(back propagation)误差逆传播神经网络

[学习笔记] BP神经网络是一种按误差反向传播的神经网络,它的基本思想还是梯度下降法,中间隐含层的误差和最后一层的误差存在一定的数学关系,(可以计算出来),就像误差被反向传回来了,所以顾名思义BP。想想生活中有句话叫做开始差之毫厘,后来失之千里是什么意思?就有点误差传递的感觉。关键他们之间的数学关系 ...

海中一神兽 发布于 2019-09-11 17:43 评论(0)阅读(31)
0

什么是梯度下降法与delta法则?

梯度下降法就是沿梯度下降的方向求解函数(误差)极小值。delta法则是使用梯度下降法来找到最佳权向量。拿数字识别这个案例为例,训练模型的过程通常是这样的。输入为1万张图片,也就是1万个样本,我们定义为D,是训练样例集合,输出为相对应的1万个数字。这就是1万个目标输出(Target),每一个目标输出我 ...

盖世神功 发布于 2019-09-11 16:46 评论(0)阅读(25)
0

2.几何变换_图像金字塔

#导入工具包 #读入图片 #高斯金字塔 ...

刘文华 发布于 2019-09-11 14:35 评论(0)阅读(13)
0

什么是导数和切线?以及他们的关系?

(引自高等数学)设函数y=f(x)在点x0的某个邻域内有定义,当自变量x在x0处有增量Δx,相应地函数取得增量Δy=f(x0+Δx)-f(x0);如果Δy与Δx之比当Δx→0时极限存在,则称函数y=f(x)在点x0处可导,并称这个极限为函数y=f(x)在点x0处的导数。马克-to-win @ 马克j ...

盖世神功 发布于 2019-09-10 18:03 评论(0)阅读(60)
0

机器学习——分类问题

人工分类 特征1>特征2 输出 0 特征1<特征2 输出 1 案例: 逻辑分类 通过输入的样本数据,基于多元线型回归模型求出线性预测方程。 $$y=w_0+w_1x_1+w_2x_2$$ 但通过线型回归方程返回的是连续值,不可以直接用于分类业务模型,所以急需一种方式使得把连续的预测值->离散的预测值 ...

凌逆战 发布于 2019-09-10 15:01 评论(0)阅读(143)
0

什么是链式法则?

[学习笔记] 链式法则是微积分中复合函数的求导法则。 复合函数,是指一个函数作为另一个函数的自变量。 如f(x)=3x,g(z)=z+3,g(f(x))就是一个复合函数,并且g(f(x))=f(x)+3=3x+3链式法则(chain rule): 若m(x)=f(g(x)),则m'(x)=f'(g( ...

海中一神兽 发布于 2019-09-10 10:12 评论(0)阅读(46)
0

用CapsNets做电能质量扰动分类(2019-08-05)

当下最热神经网络为CNN,2017年10月,深度学习之父Hinton发表《胶囊间的动态路由》(Capsule Networks),最近谷歌正式开源了Hinton胶囊理论代码,提出的胶囊神经网络。本文不涉及原理,只是站在巨人的肩膀人,尝试把胶囊网络应用与分类问题。 原理和代码的参考文献是:https: ...

南海金雕 发布于 2019-09-10 08:43 评论(0)阅读(26)
0

自动化专业如何转SLAM或机器学习岗?

由于不方便放链接,更好的阅读体验请查看: "自动化专业如何转SLAM或机器学习岗?" 本文来自知乎上的同名问题,原文链接: https://www.zhihu.com/question/266685012/answer/336327001 题主是北京某985理工类高校自动化专业本硕(硕士专业是控制工 ...

计算机视觉life 发布于 2019-09-09 19:37 评论(1)阅读(206)
0

什么是sigmoid激活函数?

上面我们讲了引入激活函数的意义,激活函数有多种,下面我们拿一种激活函数sigmoid来做示例,其他的类似。sigmoid函数表达式如下: ​ 它的函数曲线图是: ​ 看到上面的函数曲线图,可以看出是一个sigmoid函数的特点就是当输入值从负无穷变到正无穷时,输出值在0和1之间,。。。。。。。。。。 ...

盖世神功 发布于 2019-09-09 18:09 评论(0)阅读(43)
0

用深度学习做命名实体识别(四)——模型训练

通过本文你将了解如何训练一个人名、地址、组织、公司、产品、时间,共6个实体的命名实体识别模型。 准备训练样本 下面的链接中提供了已经用brat标注好的数据文件以及brat的配置文件,因为标注内容较多放到brat里加载会比较慢,所以拆分成了10份,每份包括3000多条样本数据,将这10份文件和相应的配 ...

程序员一一涤生 发布于 2019-09-09 18:01 评论(0)阅读(352)
0

浅谈-对modbus的理解

浅谈-对modbus的理解 一、简介 Modbus由MODICON公司于1979年开发,是一种工业现场总线协议标准。1996年施耐德公司推出基于以太网TCP/IP的Modbus协议:ModbusTCP。 Modbus协议是一项应用层报文传输协议,包括ASCII、RTU、TCP三种报文类型。 标准的M ...

不再_单纯 发布于 2019-09-09 17:35 评论(0)阅读(69)
0

HDFS 读写流程-译

HDFS 文件读取流程 Client 端调用 DistributedFileSystem 对象的 open() 方法。 由 DistributedFileSystem 通过 RPC 向 NameNode 请求返回文件的 Block 块所在的 DataNode 的地址。(我们知道 HDFS 默认策略对 ...

SRE工程师 发布于 2019-09-09 15:40 评论(0)阅读(54)
0

剑指Offer(三十):连续子数组的最大和

. 剑指Offer(三十):连续子数组的最大和 搜索微信公众号:'AI ming3526'或者'计算机视觉这件小事' 获取更多算法、机器学习干货 csdn:https://blog.csdn.net/baidu_31657889/ github:https://github.com/aimi cn/ ...

xiaoming3526 发布于 2019-09-09 15:14 评论(0)阅读(16)
4

推荐系统--完整的架构设计和算法(协同过滤、隐语义)

1. 什么是推荐系统 推荐系统是利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。 随着电子商务规模的不断扩大,商品个数和种类快速增长,顾客需要花费大量的时间才能找到自... ...

mantch 发布于 2019-09-09 09:40 评论(1)阅读(648)
0

为什么要引入激活函数?

[学习笔记] 根据上面的学习,我们已经知道,当我们接到客户的需求,让我们做识别,判断或者预测时,我们需要最终交付给客户我们的神经网络模型。其实我们千辛万苦训练出来的神经网络模型,就是从输入到输出的一个神秘未知函数映射。在大多数情况下,我们并不知道这个真正的函数是什么,我们只是尽量去拟合它。前面给出的 ...

海中一神兽 发布于 2019-09-08 09:58 评论(0)阅读(52)
0

几个常用算法的适应场景及其优缺点!

机器学习算法太多了,分类、回归、聚类、推荐、图像识别领域等等,要想找到一个合适算法真的不容易,所以在实际应用中,我们一般都是采用启发式学习方式来实验。通常最开始我们都会选择大家普遍认同的算法,诸如SVM,GBDT,Adaboost,现在深度学习很火热,神经网络也是一个不错的选择。 假如你在乎精度(a ...

jingsupo 发布于 2019-09-08 05:10 评论(0)阅读(139)
0

bp算法推导过程

参考:张玉宏《深度学习之美:AI时代的数据处理与最佳实践》265-271页 ...

逸辰星 发布于 2019-09-07 19:35 评论(0)阅读(51)
0

什么叫训练模型?

[学习笔记] 根据上面的计算过程可知,下图的神经网络模型果然比较符合现实情况。带游泳池的首先大概率属于高档房,其次价格也比较高。不带游泳池的 属于低档房,而且价格较低。 为什么同样的模型,判断出的结果不一样呢? 1)w3比较大,为0.8,w4比较小,为0.001.意思就是贵的设施对于判断是否为高档很 ...

盖世神功 发布于 2019-09-07 18:14 评论(0)阅读(24)
0

为什么引入神经网络来做识别,判断,预测?

[学习笔记] 很多人学了神经网络很长时间,但一直就有一个最根本的问题困扰着自己。为什么要引入神经网络来做识别,判断,预测?为什么神经网络能做这事?其实我们在生活中,总在不知不觉的经常用神经网络。只不过我们没注意观察罢了。 比如经常有朋友会问我们,哪里的房子大致多少钱?比如下面这个判断房价的例子,当知 ...

海中一神兽 发布于 2019-09-07 16:30 评论(0)阅读(23)
0

给出一个生活中的最简单的两层神经网的实际例子

[学习笔记] 下面我们给出一个生活中的最简单的两层神经网的实际例子。比如,在我们的心目当中,只要有游泳池这种设施的房子就属于高档住宅。先进行一个初步判断,高还是低? 最后才进行最终的价格判断,所以这样就有了两层神经网络。先看是高档还是低档住宅,之后高档住宅的价格偏移和低档住宅的价格偏移是完全不一样的 ...

海中一神兽 发布于 2019-09-07 11:02 评论(0)阅读(25)