08 2015 档案
摘要:转载请注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4753136.html第三部分这一部分只介绍了一个model,就是在CV领域大名鼎鼎的CNN其他课程大多请的外宾过来讲课,讲得都是DL如何在实际情况下的应用。CNNBasic CNNCNN顾名思义倦积...
阅读全文
摘要:转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4752319.html第二部分总结这一部分主要讲了四个对NLP方面效果比较好的模型:1.GRUs(Gated Feedback Recurrent Neural Networks) 2.LSTMs(L...
阅读全文
摘要:转载注明出处http://www.cnblogs.com/NeighborhoodGuo/p/4751759.html听完斯坦福大学的CS224d公开课真是受益匪浅,课程安排紧凑而且内容翔实由浅入深,使我不仅对各种神经网络模型有一个认识,还对NLP的原理有了比较深刻的认识。这门课程分为三个部分:第一...
阅读全文
摘要:欢迎转载,转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4731510.html1.详细推导过程:2.代码示例万恶的GFW居然把github的上传端口给封了,于是我就只能用国内的这个山寨版了https://gitcafe.com/Neighborho...
阅读全文
摘要:欢迎转载,转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4728185.html终于把最后一讲也看完了,stanford的NLP课程也接近了尾声,真的是非常的开心,这门课真的让我收获了很多。这一课讲得就是DL在NLP方面的应用,其实大部分内容在之前的...
阅读全文
摘要:欢迎转载,转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4725192.html这一讲还是嘉宾的讲课,讲得是关于parallel计算方面的。俗话说的好:“三个臭皮匠,顶个诸葛亮嘛”。哈哈因为一台计算机,或者一个处理器的处理能力是有限的,进行并行计算能...
阅读全文
摘要:欢迎转载,转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4720985.html这一课也是请得嘉宾讲得课,据说是standford的一位博士。讲得主题是Neural Networks in Speech Recognition不过Speech Rec...
阅读全文
摘要:欢迎转载,转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4716827.html不知不觉到了第三部分了,整个课程也快结束了,虽然不是第一次整个推完公开课,但是还是有些兴奋呢!废话不多说,开始总结啦!这节课就介绍了一个模型,就是在Computer Vi...
阅读全文
摘要:欢迎转载,转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4716074.html1.以下是problem set 2的详细推导过程:2.附上我自己敲的代码的解决过程,有错误请不吝指正。https://github.com/NeighborhoodWa...
阅读全文
摘要:欢迎转载,转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4711678.htmlCS224d的第十一课是他们的课上考试,所以后面的视频就直接跳到lecture 12了。lecture 12是一位外宾过来讲得,据说是Facebook的工程师,讲了现在最...
阅读全文
摘要:欢迎转载,转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4702932.htmlGo Go Go第十讲也顺利结束啦,不愧是Advanced Recursive NN讲得内容确实有些Advanced,不过如果认真听课再认真看课后的paper的话,我相信...
阅读全文
摘要:欢迎转载,转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4694955.html最近几课的内容不是很难,还有我的理解能力有所提高(自恋一下),所以这几课完成的都挺快。不知不觉lec9也完成了。这一讲讲了另一个RNN,其中R是Recursive不是之前...
阅读全文

浙公网安备 33010602011771号