摘要: 这些天一直在折腾ubuntu这个东西,现在整个系统的所有环境基本上是搞好了,没有什么大的问题了,下面说一说整个过程。装的是装的是12.04的这个版本不是最新的,想必论坛上的东西多,于是就没有装最新的13,具体的安装过程。参考了http://www.cnblogs.com/allenjin/archive/2011/11/26/2264089.html不过有一个问题大家要注意的是这个倒计时一定要改一下默认是0,我第一次装的时候,由于这个没有设,总是直接进入到安装界面中,在windows启动界面没有选择,没有办法,只好重装了,这个大家注意。然后还有一点要注意的是,这个也是我看安装不仔细,要执行这个 阅读全文
posted @ 2013-06-13 21:11 越影&逐日而行 阅读(283) 评论(0) 推荐(0) 编辑
摘要: 在CUDA5.0中,我们对于CUDA 错误问题的检查是通过#include <helper_functions.h>#include <helper_cuda.h> 这两个头文件进行的,但是引用这个进行编译的时候会出现这么一个问题C:\ProgramData\NVIDIACorporation\CUDASamples\v5.0\common\inc\helper_timer.h(219):fatalerrorC1083:Cannotopenincludefile:'sys/time.h':Nosuchfileordirectory。这个问题,到目录下面发 阅读全文
posted @ 2013-06-06 21:53 越影&逐日而行 阅读(1250) 评论(0) 推荐(0) 编辑
摘要: 这两天在装ubuntu,试试里面的线程库的时候遇到了llvm这个东西。llvm是什么,查了一下听起来很不错http://zh.wikipedia.org/wiki/LLVM这个是编译和使用http://clang.llvm.org/get_started.html#build效果明显,有待研究,做一个备注 阅读全文
posted @ 2013-06-05 12:58 越影&逐日而行 阅读(173) 评论(0) 推荐(0) 编辑
摘要: 换电脑了,pcl的环境要重新配置一下,采用vs2010 64位机,编译出现的第一个情况是libboost_thread-vc100-mt-gd-1_51.lib(thread.obj) : error LNK2019: ... "public: static class boost::chrono::time_point<class boost::chrono::system_clock,class boost::chrono::duration<__int64,class boost::ratio<1,10000000> > > _cdecl b 阅读全文
posted @ 2013-05-30 15:11 越影&逐日而行 阅读(916) 评论(4) 推荐(0) 编辑
摘要: 由于之前的笔记本老化,加内存,换了硬盘,现在硬盘又坏了只好换一个,换了之后带来了一些列的问题,买来的本子预装的windows8,这个在很多地方兼容性不好,于是要换windows7原本想换个系统是个很简单的事情,没想到的是换个系统加整理,花了两天的时间,怎么说呢,说一说真个过程吧。首先买的是s430的,准备用U盘pe装,哪知道根本就不能从u盘启动,这个里面涉及到两个东西。UEFI,下面给出百度百科新型UEFI,全称“统一的可扩展固件接口”(Unified Extensible Firmware Interface), 是一种详细描述全新类型接口的标准。这种接口用于操作系统自动从预启动的操作环境, 阅读全文
posted @ 2013-05-27 00:43 越影&逐日而行 阅读(206) 评论(0) 推荐(0) 编辑
摘要: softmax回归可以解决两种以上的分类,该模型是logistic回归模型在分类问题上的推广。 对于y可以取两个以上的值,比如说判断一份邮件是垃圾邮件、个人邮件还是工作邮件。 这边也参考http://deeplearning.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 即,对于训练集,我们有 也就是对于给定的输入x,我们想用假... 阅读全文
posted @ 2013-05-20 13:47 越影&逐日而行 阅读(2822) 评论(0) 推荐(0) 编辑
摘要: 在前面我们曾经有一个问题,就是在logistic回归中,我们为什么用对于这个问题,我们先定义了一个一般线性模型一般为y,就是我们前面所说的真实值y这个分布也就是指数分布伯努利分布,高斯分布,泊松分布,贝塔分布,狄特里特分布都可以用这个指数分布来表示。在对数回归时采用的是伯努利分布,对于伯努利分布,可以表示成则我们对照上面的一般线性模型解,这边也就看到我们为什么用上面的g(z)的原因对于正态分布,为了简单起见,则对照上面的一般线性模型。有这个也就是我们前面的线性回归。好的,下面总结一下思路:1. 对于我们要估计的值,我们就将其转化到某个分布中去,(特定的问题转化到特定的分布)比如分类问题,我们只 阅读全文
posted @ 2013-05-19 00:18 越影&逐日而行 阅读(875) 评论(0) 推荐(1) 编辑
摘要: 牛顿法解最大似然估计 对于之前我们解最大似然估计使用了梯度下降法,这边我们使用牛顿法,速度更快。 牛顿法也就是要求解,可导,θ用下面进行迭代。 具体看这个图 对于我们刚刚的求最大似然估计,也就是,则 下面在原理上说一说。 摘自:http://blog.csdn.net/luoleicn/article/details/6527049 对于一个目标函数f,求函数f的极大... 阅读全文
posted @ 2013-05-18 23:00 越影&逐日而行 阅读(1390) 评论(0) 推荐(1) 编辑
摘要: y是连续的则是一个回归问题,y是离散的则是一个分类问题,这边就开始考虑y是离散的情况。对于这样的问题很多,比如判断一个人是否生病,或者判断一个邮件是否是垃圾邮件。回归时连续型的,一般不用在上述的分类问题中,因为其受噪音的影响比较大,如果要把一个回归方法用到分类上的话,那就是logistic回归。之所以叫其回归,因为其本质上还是线性回归,只是在特征到结果中加了一层函数映射。对于这边也就是使用一个g(z)将连续的值映射到0跟1上面。下面就是将线性带入到g(z)中。则可以得到:对于我们考虑的问题是将连续的问题离散化,下面就带来两个问题,到底怎么做,还有就是为什么使用这个g(z)呢。至于为什么使用这个 阅读全文
posted @ 2013-05-18 22:32 越影&逐日而行 阅读(980) 评论(0) 推荐(0) 编辑
摘要: 这个是《30天自制操作系统》一书的内容,粘贴到这里。写的不错 电脑的处理中心是CPU ,即“central process unit ”的缩写,翻译成中文就是“中央处理单元”,顾名思义,它就是处理中心。如果我们把别的元件当作中心来使用的话,那它就叫做CPU 了,所以无论什么时候CPU 都总是处理中心。不过这个CPU 除了与别的电路进行电信号交换以外什么都不会,而且对于电信号,它也只能理解开(ON... 阅读全文
posted @ 2013-05-17 00:05 越影&逐日而行 阅读(236) 评论(0) 推荐(0) 编辑