摘要:
本文的主旨是解释如何做研究。我们提供的这些建议,对做研究本身(阅读、写作和程序设计),理解研究过程以及开始热爱研究(方法论、选题、选导师和情感因素),都是极具价值的。 阅读全文
posted @ 2014-12-14 23:01
张旭龙
阅读(418)
评论(0)
推荐(0)
摘要:
At a seminar in the Bell Communications Research Colloquia Series, Dr. Richard W. Hamming, a Professor at the Naval Postgraduate School in Monterey, California and a retired Bell Labs scientist, gave a very interesting and stimulating talk, `You and Your Research' to an overflow audience of some 200 Bellcore staff members and visitors at the Morris Research and Engineering Center on March 7, 1986. This talk centered on Hamming's observations and research on the question ``Why do so few scientist 阅读全文
posted @ 2014-12-14 22:56
张旭龙
阅读(242)
评论(0)
推荐(0)
摘要:
今天介绍的呢是DL另一个非常重要的模型:SAE
把这个放在最后来说呢,主要是因为在UFLDL tutorial 里已经介绍得比较详细了,二来代码非常简单(在NN的基础之上) 阅读全文
posted @ 2014-12-14 13:41
张旭龙
阅读(394)
评论(0)
推荐(0)
摘要:
CNN的内容啦,CNN讲起来有些纠结,你可以事先看看convolution和pooling(subsampling),还有这篇:tornadomeet的博文 阅读全文
posted @ 2014-12-14 13:37
张旭龙
阅读(445)
评论(0)
推荐(0)
摘要:
介绍DBN的内容,其中关键部分都是(Restricted Boltzmann Machines, RBM)的步骤,所以先放一张rbm的结构,帮助理解 阅读全文
posted @ 2014-12-14 13:17
张旭龙
阅读(482)
评论(0)
推荐(0)
摘要:
【面向代码】学习 Deep Learning(一)Neural Network 阅读全文
posted @ 2014-12-14 13:03
张旭龙
阅读(578)
评论(0)
推荐(0)
摘要:
Matlab/Octave toolbox for deep learning. Includes Deep Belief Nets, Stacked Autoencoders, Convolutional Neural Nets, Convolutional Autoencoders and vanilla Neural Nets. Each method has examples to get you started. 阅读全文
posted @ 2014-12-14 12:51
张旭龙
阅读(1078)
评论(0)
推荐(0)
摘要:
深度学习:采用无监督学习,获得更有用的特征(不需要人工抽取特征),以实现各种分类和预测目标,结合高性能计算,提高效率。 阅读全文
posted @ 2014-12-14 12:32
张旭龙
阅读(274)
评论(0)
推荐(0)

浙公网安备 33010602011771号