2016年11月24日

摘要: 近来机器学习领域实现了很多重大的进展,这些进展让计算机系统具备了解决复杂的真实世界问题的能力。其中,谷歌的机器学习又是怎样的 ? 近来机器学习领域实现了很多重大的进展,这些进展让计算机系统具备了解决复杂的真实世界问题的能力。其中之一是谷歌的大规模的、基于图(graph-based)的机器学习平台,该 阅读全文
posted @ 2016-11-24 17:14 Crysaty 阅读(278) 评论(0) 推荐(0)
摘要: http://deeplearning.stanford.edu/tutorial/ 阅读全文
posted @ 2016-11-24 17:02 Crysaty 阅读(127) 评论(0) 推荐(0)
摘要: 回归(regression)、梯度下降(gradient descent) 发表于332 天前 ⁄ 技术, 科研 ⁄ 评论数 3 ⁄ 被围观 1152 次+ 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将 阅读全文
posted @ 2016-11-24 16:38 Crysaty 阅读(246) 评论(0) 推荐(0)
摘要: 原文地址:http://blog.csdn.net/u014088052/article/details/50923924 激活函数的作用 神经网络为什么要使用激活函数? 首先提一下激活函数的一般形式,在我平时的学习中,我遇到过的一般是这四种形式,simoid,tanh,ReLu,softplus。 阅读全文
posted @ 2016-11-24 11:54 Crysaty 阅读(3609) 评论(0) 推荐(0)
摘要: 理论上讲任何一个连续的非多项式、常数函数都可以做为BP的激活函数,而且这都是已经在数学上证明过的问题。 但sigmoid函数相对其他函数有它自身的优点,比如说光滑性,鲁棒性,以及在求导的时候可以用它自身的某种形式来表示 。 这一点在做数值试验的时候很重要,因为权值的反向传播,要求激活函数的导数 。 阅读全文
posted @ 2016-11-24 11:48 Crysaty 阅读(182) 评论(0) 推荐(0)
摘要: http://colah.github.io/ 阅读全文
posted @ 2016-11-24 11:35 Crysaty 阅读(104) 评论(0) 推荐(0)
摘要: 原文 : http://www.cnblogs.com/neopenx/p/4453161.html#undefined 起源:传统激活函数、脑神经元激活频率研究、稀疏激活性 传统Sigmoid系激活函数 传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tan 阅读全文
posted @ 2016-11-24 11:32 Crysaty 阅读(330) 评论(0) 推荐(0)

导航