2017年12月18日

深层神经网络与浅层神经网络的区别

摘要: 熟悉神经网络的可能知道,Hornik在1989年,就证明了一个定理:只需一个包含足够多神经元的隐层,多层前馈神经网络就能以任意精度逼近任意复杂的连续函数那大家可能就会有疑问:既然一个隐层就够了,我们为什么还需要多层神经网络呢?我们可以从这个定理中找到可... 阅读全文

posted @ 2017-12-18 22:19 ybdesire 阅读(2048) 评论(0) 推荐(0)

2017年12月3日

详解CAP理论

摘要: 背景CAP理论在1998年首次被提出,1999年被发表为文章,2000年Brewer在PODC大会演说时将CAP作为假设,2002年才被证明为定理。CAP定理属于理论计算机科学中的内容。定义一个分布式系统最多只能同时满足 一致性(Consistency... 阅读全文

posted @ 2017-12-03 22:04 ybdesire 阅读(603) 评论(0) 推荐(0)

2017年11月27日

贝叶斯网的推理模式

摘要: 贝叶斯网下图中的有向无环图就是一个贝叶斯网络。图中一共有5个随机变量:Difficulty:表示一门课程的难度 d0表示简单,d1表示难Intelligence:表示一个学生的智商 i0表示智商一般,i1表示智商很高Grade:某门课程考试的成绩 g1... 阅读全文

posted @ 2017-11-27 22:36 ybdesire 阅读(920) 评论(0) 推荐(0)

2017年11月12日

深度学习的本质

摘要: 深度学习的本质是什么?它和神经网络是什么关系?它是一种新的机器学习模型吗?这些问题一直困惑着深度学习从业者们。在知乎上有“深度学习”和“多层神经网络”的区别?。从各种各样的回复中,我们再一次沦陷。那么,有没有权威人士对这些问题做一个负责的回答呢?有,从... 阅读全文

posted @ 2017-11-12 22:00 ybdesire 阅读(1119) 评论(0) 推荐(0)

2017年11月7日

从multiprocessing源码理解其对SIGINT信号的屏蔽

摘要: 问题引入由于python的GIL(全局解释器锁,Global Interpreter Lock),GIL在任意时刻只运行单个python线程执行,python的多线程并不能真正的利用多核CPU,无论有多少个核,程序都职能在一个处理器上运行。 要想利用多... 阅读全文

posted @ 2017-11-07 20:51 ybdesire 阅读(231) 评论(0) 推荐(0)

2017年10月25日

深度学习与传统机器学习算法的区别与应用

摘要: 很多人都问过我这个问题,为什么现在大家都用深度学习,而传统机器学习无论在科研中还是实践中都用的很少了?我之前也简单的给人解释过,原因无非就是大数据、计算机性能得到提升这样的,并没有详细解释其背后的原因(比如为什么现在能获得更多的数据?)。但看了Andr... 阅读全文

posted @ 2017-10-25 22:37 ybdesire 阅读(681) 评论(0) 推荐(0)

2017年10月16日

详解正则表达式匹配算法原理

摘要: 注意:关于正则表达式的规则,网上内容已经很多了。所以本文不讲述正则表达式的规则,只讲其背后的算法原理。1. 引入正则表达式,Regular Expression,使用单个字符串来描述、匹配一系列满足某种句法规则的字符串。在很多文本编辑器里,正则表达式通... 阅读全文

posted @ 2017-10-16 22:45 ybdesire 阅读(3100) 评论(0) 推荐(0)

2017年10月1日

弹性分布式数据集:一种对内存集群计算的容错抽象(三)

摘要: 说明:本文是翻译自讲述Spark核心设计思想的经典论文“Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing”。在翻译的... 阅读全文

posted @ 2017-10-01 21:41 ybdesire 阅读(200) 评论(0) 推荐(0)

2017年9月29日

弹性分布式数据集:一种对内存集群计算的容错抽象(二)

摘要: 说明:本文是翻译自讲述Spark核心设计思想的经典论文“Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing”。在翻译的... 阅读全文

posted @ 2017-09-29 22:53 ybdesire 阅读(208) 评论(0) 推荐(0)

导航