上一页 1 ··· 65 66 67 68 69
摘要: 转自:http://www.cnblogs.com/anyview/p/5057460.html 阅读全文
posted @ 2016-05-24 10:40 静悟生慧 阅读(3059) 评论(0) 推荐(0) 编辑
摘要: 转自博客:http://blog.163.com/fei_lai_feng/blog/static/9289962200991713415422/ 一. 读写图像文件 1. imread imread函数用于读入各种图像文件,如:a=imread('e:\w01.tif') 注:计算机E盘上要有w0 阅读全文
posted @ 2016-05-24 10:03 静悟生慧 阅读(987) 评论(0) 推荐(0) 编辑
摘要: 转自:http://www.lofter.com/postentry?from=search&permalink=1cb3111d_6ee9587 1、先说说这两个词的概念: 降采样,即是采样点数减少。对于一幅N*M的图像来说,如果降采样系数为k,则即是在原图中 每行每列每隔k个点取一个点组成一幅图 阅读全文
posted @ 2016-05-24 09:54 静悟生慧 阅读(34848) 评论(0) 推荐(3) 编辑
摘要: 出自 :http://neuralnetworksanddeeplearning.com/ 。 卷积神经网络采用了三种基本概念:局部感受野(local receptive fields),共享权重(sharedweights),和混合(pooling)。 局部感受野: 在之前看到的全连接层的网络中, 阅读全文
posted @ 2016-05-12 16:34 静悟生慧 阅读(975) 评论(0) 推荐(0) 编辑
摘要: 转载自:http://www.cnblogs.com/tornadomeet 梯度下降法又叫最速下降法,英文名为steepest descend method.估计搞研究的人应该经常听见这个算法吧,用来求解表达式最大或者最小值的,属于无约束优化问题。 首先我们应该清楚,一个多元函数的梯度方向是该函数 阅读全文
posted @ 2016-05-11 21:33 静悟生慧 阅读(986) 评论(0) 推荐(0) 编辑
摘要: 转自:http://www.cnblogs.com/heaad/archive/2011/03/07/1976443.html 第0节、引例 本文以Fisher的Iris数据集作为神经网络程序的测试数据集。Iris数据集可以在http://en.wikipedia.org/wiki/Iris_flo 阅读全文
posted @ 2016-05-09 11:52 静悟生慧 阅读(48744) 评论(2) 推荐(3) 编辑
摘要: 摘自UFLDL教程,链接:http://deeplearning.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B 一. 概述 以监督学习为例,假设我们有训练样本集 ,那么神经网络算法能够提供一种复杂且非线性的假设模型 ,它具有参数 ,可以以此参 阅读全文
posted @ 2016-05-08 17:59 静悟生慧 阅读(1753) 评论(0) 推荐(0) 编辑
摘要: 周志华点评机器学习会议 作者:南京大学周志华老师 微博:http://weibo。com/zhouzh2012 编者提示:这篇文章写于几年前,但现在看来各会议影响力基本一致,有参考价值。但排名不可能做到完全客观,烦请大家仔细阅读周老师文章后的寄语。 说明:纯属个人看法,仅供参考。tier-1的列得较 阅读全文
posted @ 2016-05-07 20:05 静悟生慧 阅读(1503) 评论(0) 推荐(0) 编辑
上一页 1 ··· 65 66 67 68 69