Deep Learning 学习随记(五)Deep network 深度网络
摘要:这一个多周忙别的事去了,忙完了,接着看讲义~这章讲的是深度网络(Deep Network)。前面讲了自学习网络,通过稀疏自编码和一个logistic回归或者softmax回归连接,显然是3层的。而这章则要讲深度(多层)网络的优势。Deep Network:为什么要使用深度网络呢?使用深度网络最主要的优势在于,它能以简洁的方式来表达比浅层网络大得多的函数集合。正式点说,可以找到一些函数,它们能够用k层网络简洁的表达出来(这里的简洁指的是使用隐层单元的数目与输入单元数目是多项式关系),但是对一个只有(k-1)层的网络而言,除非它使用与输入单元数目呈指数关系的隐层单元数目,否则不能简洁表达这些函数。
阅读全文
posted @
2013-10-29 10:26
bzjia
阅读(3564)
推荐(0)
Deep Learning 学习随记(四)自学习和非监督特征学习
摘要:接着看讲义,接下来这章应该是Self-Taught Learning and Unsupervised Feature Learning。含义:从字面上不难理解其意思。这里的self-taught learning指的是用非监督的方法提取特征,然后用监督方法进行分类。比如用稀疏自编码+softmax regression。对于非监督特征学习,有两种类型,一类是self-taught learning,一类是semi-supervised learning。看他们的定义不如看讲义中给出的那个简单的例子:假定有一个计算机视觉方面的任务,目标是区分汽车和摩托车图像;也即训练样本里面要么是汽车的图像,
阅读全文
posted @
2013-10-18 18:18
bzjia
阅读(3575)
推荐(0)
受限玻尔兹曼机(RBM)
摘要:这两天跟人讨论起说在DL中用DBN的,而DBN就是用很多RBM叠加起来的,想起以前看到的RBM,只是粗略看了下,没有仔细研究,现在正好借这个机会好好研读一番。玻尔兹曼机(BM):波尔兹曼机(Boltzmann Machine, BM)是Hiton(是的,Hiton大牛)和Sejnowski 于1986年基于统计力学提出的神经网络,这种网络中的神经元是随机神经元,神经元的输出只有两种状态(激活和未激活),一般用二进制0或1表示。如下图所示:受限玻尔兹曼机(RBM):BM具有强大的无监督学习能力,能够学习数据中复杂的规则。但是训练时间过长,另外其概率分布很难获得,为了克服这一个问题,Smolens
阅读全文
posted @
2013-10-16 14:31
bzjia
阅读(7445)
推荐(0)
Deep Learning 学习随记(三)续 Softmax regression练习
摘要:上一篇讲的Softmax regression,当时时间不够,没把练习做完。这几天学车有点累,又特别想动动手自己写写matlab代码所以等到了现在,这篇文章就当做上一篇的续吧。回顾:上一篇最后给出了softmax regression的代价函数和其偏导数,当然要实现的话基本也就是这两个函数的实现,为方便查看,这里再写一遍:代价函数:偏导数:实现:实现过程就是对MNIST手写数字库进行的分类(数字从0~9共10个)。说实话,上面代价函数对于我这matlab用的不熟的人来说,着实吓了一跳,好在看了讲义,里面真是深入浅出啊,相当于手把手教咱编程啊,太赞了~讲义里给出了代码的基本框架,我们只需填几个地
阅读全文
posted @
2013-10-15 19:14
bzjia
阅读(1599)
推荐(0)
Deep Learning 学习随记(三)Softmax regression
摘要:讲义中的第四章,讲的是Softmax 回归。softmax回归是logistic回归的泛化版,先来回顾下logistic回归。logistic回归:训练集为{(x(1),y(1)),...,(x(m),y(m))},其中m为样本数,x(i)为特征。logistic回归是针对二分类问题的,因此类标y(i)∈{0,1},。其估值函数(hypothesis)如下:代价函数:softmax 回归:softmax回归解决的是多分类问题,即y(i)∈{1,2,...,k}。(这里softmax回归一般从类别1开始,而不是从0)。其估值函数形式如下:为了方便起见,我们同样使用符号θ来表示全部的模型参数。在实
阅读全文
posted @
2013-10-13 16:44
bzjia
阅读(6589)
推荐(1)
Deep Learning学习随记(二)Vectorized、PCA和Whitening
摘要:接着上次的记,前面看了稀疏自编码。按照讲义,接下来是Vectorized, 翻译成向量化?暂且这么认为吧。Vectorized:这节是老师教我们编程技巧了,这个向量化的意思说白了就是利用已经被优化了的数值运算来编程,矩阵的操作尽量少用for循环,用已有的矩阵运算符来操作。这里只是粗略的看了下,有些小技巧还是不错的。PCA:PCA这个以前都接触过了,简单说就是两步:1.协方差矩阵其中x(i)是输入样本(假设已经均值化)。2.SVD分解,得出U向量。其中U向量的每列就是样本的新的方向向量。前面的是主方向。然后用U'*x得到PCA后的样本值xrot:Whitening:我们已经了解了如何使用
阅读全文
posted @
2013-10-11 15:15
bzjia
阅读(1675)
推荐(0)
Deep Learning学习随记(一)稀疏自编码器
摘要:最近开始看Deep Learning,随手记点,方便以后查看。主要参考资料是Stanford 教授 Andrew Ng 的 Deep Learning 教程讲义:http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial。这个讲义已经...
阅读全文
posted @
2013-10-10 16:44
bzjia
阅读(11047)
推荐(0)