摘要:一年前由于工作需要从微软技术栈入坑Java,并陆陆续续做了一个Java后台项目,目前在搞Scala+Java混合的后台开发,一直觉得并发编程是所有后台工程师的基本功,所以也学习了小一年Java的并发工具,对整体的并发理解乃至分布式都有一定的提高,所以想和大家分享一下。 我的学习路线 首先说说学习路线 阅读全文
posted @ 2017-03-12 22:48 HappyAngel 阅读(9328) 评论(3) 推荐(1) 编辑
摘要:最近读到了一本很好的关于机器学习-深度学习的书值得推荐下并特意做了这个学习总结。 为什么推荐 在我认为好书(计算机类)的评判有几个标准: 目前为止,我读到能符合上述标准的好书不多,例如深入理解计算机系统,汇编语言(王爽),再就是这本《如何从零开始构建神经网络》。 遇到这本书也是一种机缘,当下深度学习 阅读全文
posted @ 2017-02-26 21:17 HappyAngel 阅读(1024) 评论(0) 推荐(0) 编辑
摘要:最近越来越习惯用微信公众号通过推的方式阅读文章,在信息泛滥的时代自己主动去拉取信息感觉越来越耗时也很容易忘记,所以我也想把自己写的文章通过公众号推出去方便阅读,便就有了自己的公众号,欢迎大家订阅和分享,也可以更方便的交流! 名字叫:小熊的技术之路,二维码如下: 阅读全文
posted @ 2017-02-26 21:10 HappyAngel 阅读(100) 评论(0) 推荐(0) 编辑
摘要:监控系统设计和实践 阅读全文
posted @ 2016-11-13 16:19 HappyAngel 阅读(169) 评论(0) 推荐(0) 编辑
摘要:不知不觉,在M$干了三年多了,大大小小做了4-5个项目,总的来说,以M$作为职业生涯的起点算是个不错的选择。 这三年学到了很多东西,值得我专门写这篇总结: 外企的英文邮件训练极大的提高了我的英语读写能力,现在不知不觉也能写一篇很长的英文邮件了,读技术书也偏向于直接读原版,这点感觉获益很大; 三年基... 阅读全文
posted @ 2015-12-10 21:46 HappyAngel 阅读(1648) 评论(4) 推荐(1) 编辑
摘要:之前上了台大的机器学习基石课程,里面用的教材是《Learning from data》,最近看了看觉得不错,打算深入看下去,内容上和台大的课程差不太多,但是有些点讲的更深入,想了解课程里面讲什么的童鞋可以看我之前关于课程的第一章总结列表:机器学习定义及PLA算法机器学习的分类机器学习的可能性 我打... 阅读全文
posted @ 2015-04-12 19:50 HappyAngel 阅读(2099) 评论(0) 推荐(0) 编辑
摘要:一 本书主线 阅读一本书应该是一个主动的过程,本书的实质在于强调主动阅读,并详细地给出了指导意见。用一句话概括本书的主旨的话,应该是 读任何书都应该带着问题阅读并能对阅读中看到的观点进行评价,这才能算得上前文说的主动阅读。二 本书脉络 本书主要围着两大主题进行组织,第一:按照阅读的四大层次进行介绍;... 阅读全文
posted @ 2014-05-24 23:41 HappyAngel 阅读(3519) 评论(0) 推荐(0) 编辑
摘要:一 文章的主线 本文章主要对自媒体的概念作了阐释,分析了自媒体产生的历史及其内在原因。简而言之,本文最核心的观点在于 1 自媒体时代阅读,不社交无阅读。 2 强调反馈对于人的重要性,这是一种激励措施,无论是对于阅读者还是写作者,没有这个很难维持长久。二 文章脉络 自媒体越来越强势 --〉自媒体到... 阅读全文
posted @ 2014-05-16 23:26 HappyAngel 阅读(368) 评论(0) 推荐(0) 编辑
摘要:本章重点: 简单的论证了即使有Noise,机器依然可以学习,VC Dimension对泛化依然起作用;介绍了一些评价Model效果的Error Measurement方法。一论证即使有Noisy,VC Dimension依然有效;下图展示了主要思想,以前的数据集是确定的(Deterministic),现在加了Noisy变成了分布函数了,即对每个一x,y出现的概率是P(y|x)。可以这么理解,概率表示的是对事件确定的程度,以前确定性的数据集是P(y|x) = 1, for y = f(x) p(y|x) = 0, for y != f(x), 加入了Noisy,便不是了,有一定的概率例如0.7是 阅读全文
posted @ 2014-04-08 23:01 HappyAngel 阅读(1554) 评论(3) 推荐(1) 编辑
摘要:本章的思路在于揭示VC Dimension的意义,简单来说就是假设的自由度,或者假设包含的feature vector的个数(一般情况下),同时进一步说明了Dvc和,Eout,Ein以及Model Complexity Penalty的关系。一回顾 由函数B(N,k)的定义,可以得到比较松的不等式mh(N)小于等于N^(k-1)(取第一项)。这样就可以把不等式转化为仅仅只和VC Dimension和N相关了,从而得出如下结论:1 mh(N)有break point k,那么其就是多项式级别的,我们认为假设数量不算多,是个好的假设;2 N 足够大,这样我们便算有了好的抽样数据集(假设不含很多N. 阅读全文
posted @ 2014-03-30 16:26 HappyAngel 阅读(5696) 评论(0) 推荐(0) 编辑