会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
MR.xsc
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
下一页
2016年8月2日
流型学习
摘要: from 猴子 manifold learning 流形学习 流形学习是个很广泛的概念。这里我主要谈的是自从2000年以后形成的流形学习概念和其主要代表方法。自从2000年以后,流形学习被认为属于非线性降维的一个分支。众所周知,引导这一领域迅速发展的是2000年Science杂志上的两篇文章: Is
阅读全文
posted @ 2016-08-02 18:23 xsc906476903
阅读(218)
评论(1)
推荐(1)
2016年6月19日
概率编程语言
摘要: 最近看见了一些很有趣的东西 先把链接放在这里,以后再看 venture:http://probcomp.csail.mit.edu/venture/ 一本书:http://dippl.org/?utm_source=top.caibaojian.com/52044 http://www.tuicoo
阅读全文
posted @ 2016-06-19 11:51 xsc906476903
阅读(269)
评论(0)
推荐(0)
2016年6月8日
人类的视觉能力基本上是出生后逐渐习得的
摘要: 人类的视觉能力基本上是出生后逐渐习得的,婴儿不是眼睛发育不足,而是头脑暂时还不会很好运用眼睛去观察世界,就好比蹩脚的摄影师,拿着顶级单反也拍不出好片。 婴儿开始看世界的过程,就是对视觉处理神经元网络进行训练的过程。初生婴儿需要学习的第一课是分辨物体轮廓,最初他们看到的世界只是各种颜色和明暗的块块,经
阅读全文
posted @ 2016-06-08 21:41 xsc906476903
阅读(426)
评论(0)
推荐(1)
关“视觉神经系统是怎么形成的?”的思考
摘要: http://www.cnblogs.com/mrxsc/p/5571358.html 视觉信息的处理是一个非常复杂的过程,这不由得让我想到了同样位于人们大脑中的新大脑皮层,作为人类智能的起始之地,它的运作也不简单,但是在婴儿时期,它的各部分单元并没有什么不同,不同的功能是在婴儿接受了外界的各种刺激
阅读全文
posted @ 2016-06-08 21:39 xsc906476903
阅读(905)
评论(0)
推荐(1)
2016年5月8日
编译器完工
摘要: 一个月的时间写了一个Naive的编译器, 采用的是ANTLR + VISIT模式写的前端+后端。 这种模式的优点是简单易懂,写起来不会卡壳,并且非常直观易于调试 但是缺点是代码的拓展性非常不友好,想要在中途某个点加入优化会非常困难(只要架构不好就会牵扯到全局),只能一条路顺着做 接着会更新简单易懂的
阅读全文
posted @ 2016-05-08 23:58 xsc906476903
阅读(104)
评论(0)
推荐(0)
2016年4月10日
MIPS指令集相关
摘要: 寄存器: 寄存器号 符号名 用途 0 始终为0 看起来象浪费,其实很有用 1 at 保留给汇编器使用 2-3 v0,v1 函数返回值 4-7 a0-a3 前头几个函数参数 8-15 t0-t7 临时寄存器,子过程可以不保存就使用 24-25 t8,t9 同上 16-23 s0-s7 寄存器变量,子过
阅读全文
posted @ 2016-04-10 23:19 xsc906476903
阅读(209)
评论(0)
推荐(0)
2016年3月23日
Deep learning:八(Sparse Autoencoder)
摘要: 前言: 这节课来学习下Deep learning领域比较出名的一类算法——sparse autoencoder,即稀疏模式的自动编码。我们知道,deep learning也叫做unsupervised learning,所以这里的sparse autoencoder也应是无监督的。按照前面的博文:D
阅读全文
posted @ 2016-03-23 13:01 xsc906476903
阅读(136)
评论(0)
推荐(0)
Deep learning:七(基础知识_2)_终于到神经网络了
摘要: 前面的文章已经介绍过了2种经典的机器学习算法:线性回归和logistic回归,并且在后面的练习中也能够感觉到这2种方法在一些问题的求解中能够取得很好的效果。现在开始来看看另一种机器学习算法——神经网络。线性回归或者logistic回归问题理论上不是可以解决所有的回归和分类问题么,那么为什么还有其它各
阅读全文
posted @ 2016-03-23 12:59 xsc906476903
阅读(238)
评论(0)
推荐(0)
Deep learning:六(regularized logistic回归练习)
摘要: 前言: 在上一讲Deep learning:五(regularized线性回归练习)中已经介绍了regularization项在线性回归问题中的应用,这节主要是练习regularization项在logistic回归中的应用,并使用牛顿法来求解模型的参数。参考的网页资料为:http://opencl
阅读全文
posted @ 2016-03-23 12:58 xsc906476903
阅读(114)
评论(0)
推荐(0)
Deep learning:四(logistic regression练习)
摘要: 前言: 本节来练习下logistic regression相关内容,参考的资料为网页:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex4/ex4.htm
阅读全文
posted @ 2016-03-23 12:57 xsc906476903
阅读(130)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
下一页
公告