上一页 1 ··· 3 4 5 6 7 8 9 下一页
摘要: 原博文:http://blog.csdn.net/morewindows/article/details/6684558 快速排序由于排序效率在同为O(N*logN)的几种排序方法中效率较高,因此经常被采用,再加上快速排序思想 分治法也确实实用,因此很多软件公司的笔试面试,包括像腾讯,微软等知名IT 阅读全文
posted @ 2017-08-10 09:35 7岁 阅读(271) 评论(0) 推荐(0)
摘要: 引言 在ubuntu当中,安装应用程序我所知道的有三种方法,分别是apt-get,dpkg安装deb和make install安装源码包三种。下面针对每一种方法各举例来说明。 apt-get方法 使用apt-get install来安装应用程序算是最常见的一种安装方法了,比如我要安装build-es 阅读全文
posted @ 2017-07-12 09:53 7岁 阅读(322) 评论(0) 推荐(0)
摘要: 一:引言 因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。在训练bp网络时经常遇到的一个问题,过拟合指的是模型在训练数据上损失函数比较小,预测准确率较高(如果通过画图来表示的话,就是拟合曲线比较尖,不平滑,泛化能力不好),但是在测试数据上 阅读全文
posted @ 2017-05-08 14:36 7岁 阅读(17156) 评论(1) 推荐(1)
摘要: http://blog.csdn.net/whiup/article/details/52276110 1. sigmoid激活函数 sigmoid将一个实数输入映射到[0,1]范围内,如下图(左)所示。使用sigmoid作为激活函数存在以下几个问题: 梯度饱和。当函数激活值接近于0或者1时,函数的 阅读全文
posted @ 2017-05-07 10:58 7岁 阅读(495) 评论(0) 推荐(0)
摘要: 传送门 阅读全文
posted @ 2017-05-06 21:16 7岁 阅读(285) 评论(0) 推荐(0)
摘要: 1.为什么在训练神经网络之前,要对输入数据做归一化处理? 神经网络学习过程的本质是为了学习数据的分布,一方面一旦训练数据与测试数据的分布不同,那么网络的泛化能力也降低。另一方面一旦每批训练数据的分布各不相同(batch 梯度下降),那么网络就要在每次迭代都去学习适应不同的分布,这样将会大大降低网络的 阅读全文
posted @ 2017-05-06 09:44 7岁 阅读(209) 评论(0) 推荐(0)
摘要: 知乎 csdn Batch Normalization 学习笔记 原文地址:http://blog.csdn.net/hjimce/article/details/50866313 作者:hjimce 一、背景意义 本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Nor 阅读全文
posted @ 2017-05-05 16:59 7岁 阅读(719) 评论(0) 推荐(0)
摘要: http://blog.csdn.net/heyongluoyao8/article/details/48636251 阅读全文
posted @ 2017-04-09 21:00 7岁 阅读(278) 评论(0) 推荐(0)
摘要: 原文:http://chuansong.me/n/543805151251 近些年,深度学习在各种计算机视觉任务上都取得了重大的突破,其中一个重要因素就是其强大的非线性表示能力,能够理解图像更深层次的信息。本文对基于深度学习的视觉实例搜索方法做了简单的总结和概括,希望能给读者们带来启发。前言给定一张 阅读全文
posted @ 2017-04-06 16:31 7岁 阅读(580) 评论(0) 推荐(0)
摘要: 就是想保存下来,没有其他用意 原博文:http://blog.csdn.net/qq_26898461/article/details/53467968 3. 空间定位与检测 参考信息《基于深度学习的目标检测研究进展》 3.1 计算机视觉任务 3.2 传统目标检测方法 传统目标检测流程: 1)区域选 阅读全文
posted @ 2017-04-06 14:40 7岁 阅读(1167) 评论(0) 推荐(0)
上一页 1 ··· 3 4 5 6 7 8 9 下一页