摘要:
机器学习——深度学习(Deep Learning)
分类: Machine Learning2012-08-04 09:49 142028人阅读 评论(70) 收藏 举报
algorithmclassificationfeaturesfunctionhierarchy
Deep Learning是机器学习中一个非常接近AI的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,最近研究了机器学习中一些深度学习的相关知识,本文给出一些很有用的资料和心得。 阅读全文
posted @ 2015-04-20 20:53
张旭龙
阅读(154)
评论(0)
推荐(0)
摘要:
浅谈深度学习(Deep Learning)的基本思想和方法
分类: 机器学习 信息抽取 Deep Learning2013-01-07 22:18 25010人阅读 评论(11) 收藏 举报
深度学习(Deep Learning),又叫Unsupervised Feature Learning或者Feature Learning,是目前非常热的一个研究主题。
本文将主要介绍Deep Learning的基本思想和常用的方法。 阅读全文
posted @ 2015-04-20 20:49
张旭龙
阅读(163)
评论(0)
推荐(0)
摘要:
梯度下降法[编辑]
(重定向自最速下降法)
梯度下降法是一个最优化算法,通常也称为最速下降法。 阅读全文
posted @ 2015-04-20 20:38
张旭龙
阅读(213)
评论(0)
推荐(0)
摘要:
数学之美番外篇:平凡而又神奇的贝叶斯方法
BY
刘未鹏
– SEPTEMBER 21, 2008POSTED IN: 数学, 机器学习与人工智能, 计算机科学
概率论只不过是把常识用数学公式表达了出来。
——拉普拉斯
记得读本科的时候,最喜欢到城里的计算机书店里面去闲逛,一逛就是好几个小时;有一次,在书店看到一本书,名叫贝叶斯方法。当时数学系的课程还没有学到概率统计。我心想,一个方法能够专门写出一本书来,肯定很牛逼。后来,我发现当初的那个朴素归纳推理成立了——这果然是个牛逼的方法。
——题记 阅读全文
posted @ 2015-04-20 20:37
张旭龙
阅读(202)
评论(0)
推荐(0)
摘要:
Logistic regression (逻辑回归)是当前业界比较常用的机器学习方法,用于估计某种事物的可能性。比如某用户购买某商品的可能性,某病人患有某种疾病的可能性,以及某广告被用户点击的可能性等。(注意这里是:“可能性”,而非数学上的“概率”,logisitc回归的结果并非数学定义中的概率值,不可以直接当做概率值来用。该结果往往用于和其他特征值加权求和,而非直接相乘) 阅读全文
posted @ 2015-04-20 20:03
张旭龙
阅读(142)
评论(0)
推荐(0)
摘要:
Geoffrey E. Hinton's Publications
Helmholtz Machines
Online versions [if available] can be found in my chronological publications 阅读全文
posted @ 2015-04-20 19:07
张旭龙
阅读(305)
评论(0)
推荐(0)
摘要:
Relevant literature
Book chapter about the philosophy behind deep architecture model, motivating them in the context of Artificial Intelligence 阅读全文
posted @ 2015-04-20 19:05
张旭龙
阅读(334)
评论(0)
推荐(0)
摘要:
Deep Belief Nets (DBN's) will be explained in the lecture on Oct 29. Instead of learning layers of features by backpropagating errors, they learn one layer at a time by trying to build a generative model of the data or the activities of the feature detectors in the layer below. After they have learned features in this way, they can be fine-tuned with backpropagation. Their main advantage is that they can learn the layers of features from large sets of unlabelled data. 阅读全文
posted @ 2015-04-20 19:04
张旭龙
阅读(167)
评论(0)
推荐(0)
摘要:
Curator: Max Welling
Dr. Max Welling, School of Information and Computer Science, University of California, Irvine, CA
A Product of Experts model (PoE) (Hinton 2002) combines a number of individual component models (the experts) by taking their product and normalizing the result. Each expert is defined as a possibly unnormalized probabilistic model f(x) over its input space. 阅读全文
posted @ 2015-04-20 18:57
张旭龙
阅读(534)
评论(0)
推荐(0)
摘要:
A Boltzmann machine is a network of symmetrically connected, neuron-like units that make stochastic decisions about whether to be on or off. Boltzmann machines have a simple learning algorithm (Hinton & Sejnowski, 1983) that allows them to discover interesting features that represent complex regularities in the training data. The learning algorithm is very slow in networks with many layers of feature detectors, but it is fast in "restricted Boltzmann machines" that have a single layer of feature 阅读全文
posted @ 2015-04-20 18:47
张旭龙
阅读(398)
评论(0)
推荐(0)
摘要:
Deep Belief Network
为了更好的在下次讨论班讲述 DBN,特开此帖。主要是
介绍 DBN 的相关知识,做一份逻辑上完整的东西。参考
Hinton 的东西来讲吧: 阅读全文
posted @ 2015-04-20 18:44
张旭龙
阅读(239)
评论(0)
推荐(0)
摘要:
Deep Belief Networks资料汇总
博客分类:
神经网络
Deep Learning神经网络Deep Belief Networks
毕设做的是DBNs的相关研究,翻过一些资料,在此做个汇总。 阅读全文
posted @ 2015-04-20 17:15
张旭龙
阅读(291)
评论(0)
推荐(0)
摘要:
前2天看到新闻说,用微软用深度神经网络大幅度提高了语言识别的正确率
http://research.microsoft.com/en-us/news/features/speechrecognition-082911.aspx
于是对深度学习有了兴趣,由于没看过微软的文章,所以还不知道是不是用的类似技术。 阅读全文
posted @ 2015-04-20 16:48
张旭龙
阅读(216)
评论(0)
推荐(0)
摘要:
最近deep learning大火,不仅仅受到学术界的关注,更在工业界受到大家的追捧。在很多重要的评测中,DL都取得了state of the art的效果。尤其是在语音识别方面,DL使得错误率下降了大约30%,取得了显著的进步,现在如果哪个做语音识别的公司没用DL,都不好意思打招呼了,相信后续这种状况还会延伸到图像和自然语言处理等其它领域。 阅读全文
posted @ 2015-04-20 00:17
张旭龙
阅读(190)
评论(0)
推荐(0)

浙公网安备 33010602011771号