05 2013 档案
摘要:换电脑了,pcl的环境要重新配置一下,采用vs2010 64位机,编译出现的第一个情况是libboost_thread-vc100-mt-gd-1_51.lib(thread.obj) : error LNK2019: ... "public: static class boost::chrono::time_point<class boost::chrono::system_clock,class boost::chrono::duration<__int64,class boost::ratio<1,10000000> > > _cdecl b
阅读全文
摘要:由于之前的笔记本老化,加内存,换了硬盘,现在硬盘又坏了只好换一个,换了之后带来了一些列的问题,买来的本子预装的windows8,这个在很多地方兼容性不好,于是要换windows7原本想换个系统是个很简单的事情,没想到的是换个系统加整理,花了两天的时间,怎么说呢,说一说真个过程吧。首先买的是s430的,准备用U盘pe装,哪知道根本就不能从u盘启动,这个里面涉及到两个东西。UEFI,下面给出百度百科新型UEFI,全称“统一的可扩展固件接口”(Unified Extensible Firmware Interface), 是一种详细描述全新类型接口的标准。这种接口用于操作系统自动从预启动的操作环境,
阅读全文
摘要:softmax回归可以解决两种以上的分类,该模型是logistic回归模型在分类问题上的推广。 对于y可以取两个以上的值,比如说判断一份邮件是垃圾邮件、个人邮件还是工作邮件。 这边也参考http://deeplearning.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 即,对于训练集,我们有 也就是对于给定的输入x,我们想用假...
阅读全文
摘要:在前面我们曾经有一个问题,就是在logistic回归中,我们为什么用对于这个问题,我们先定义了一个一般线性模型一般为y,就是我们前面所说的真实值y这个分布也就是指数分布伯努利分布,高斯分布,泊松分布,贝塔分布,狄特里特分布都可以用这个指数分布来表示。在对数回归时采用的是伯努利分布,对于伯努利分布,可以表示成则我们对照上面的一般线性模型解,这边也就看到我们为什么用上面的g(z)的原因对于正态分布,为了简单起见,则对照上面的一般线性模型。有这个也就是我们前面的线性回归。好的,下面总结一下思路:1. 对于我们要估计的值,我们就将其转化到某个分布中去,(特定的问题转化到特定的分布)比如分类问题,我们只
阅读全文
摘要:牛顿法解最大似然估计 对于之前我们解最大似然估计使用了梯度下降法,这边我们使用牛顿法,速度更快。 牛顿法也就是要求解,可导,θ用下面进行迭代。 具体看这个图 对于我们刚刚的求最大似然估计,也就是,则 下面在原理上说一说。 摘自:http://blog.csdn.net/luoleicn/article/details/6527049 对于一个目标函数f,求函数f的极大...
阅读全文
摘要:y是连续的则是一个回归问题,y是离散的则是一个分类问题,这边就开始考虑y是离散的情况。对于这样的问题很多,比如判断一个人是否生病,或者判断一个邮件是否是垃圾邮件。回归时连续型的,一般不用在上述的分类问题中,因为其受噪音的影响比较大,如果要把一个回归方法用到分类上的话,那就是logistic回归。之所以叫其回归,因为其本质上还是线性回归,只是在特征到结果中加了一层函数映射。对于这边也就是使用一个g(z)将连续的值映射到0跟1上面。下面就是将线性带入到g(z)中。则可以得到:对于我们考虑的问题是将连续的问题离散化,下面就带来两个问题,到底怎么做,还有就是为什么使用这个g(z)呢。至于为什么使用这个
阅读全文
摘要:这个是《30天自制操作系统》一书的内容,粘贴到这里。写的不错 电脑的处理中心是CPU ,即“central process unit ”的缩写,翻译成中文就是“中央处理单元”,顾名思义,它就是处理中心。如果我们把别的元件当作中心来使用的话,那它就叫做CPU 了,所以无论什么时候CPU 都总是处理中心。不过这个CPU 除了与别的电路进行电信号交换以外什么都不会,而且对于电信号,它也只能理解开(ON...
阅读全文
摘要:为什么采用平方和作为错误估计函数,不是不是绝对值或者4次方之类。 假设根据特征的预测结果跟实际结果之间有误差,误差为,那么真实值跟预测值之间有如下关系: 这个i指的是每一个训练数据。 对于误差,前面提到过图像产生的误差,根据中心极限定理,一般的误差服从正态分布。 假设误差服从,则 即: 上式是θ是参数,是y在x下的条件概率。 这个也就转化成了,我们已经知道了试验结果,就是知道...
阅读全文
摘要:继续上一篇的问题,我们采用另外一种方法,采用矩阵的方式重新定义了最小二乘法。在说这个方法之前,先看看这个矩阵怎么个定义法。我们知道标量y对矩阵X的导数如下:好,我们就根据课文中,对矩阵A求导。然后给出了一个例子:则然后根据矩阵迹的概念对于矩阵的迹有以下性质:紧接着可以得到下面一些性质,作者给出,没有证明下面我们重新定义训练数据,定义成矩阵的形式。每一行为一个训练数据,x为列向量结果也用向量表示:由于,则我们对于一个向量z,我们有,则这样我们通过这种形式又得到了J,我们的目的也就是使J最小。好,我们根据上面公式的(2)和(3),我们可以得到因此,有:要求最小的J,我们就令上式为0向量。则,即这边
阅读全文
摘要:这些天在写前几个月学习的三维重建方面的知识的同时,也开始学习着目前比较火的深度学习。学习这个不是跟着潮流,总是在想读研到底学到了什么。 我想也就是个自学能力吧。其实感觉自己反而有点不自信了,本科毕业什么都不担心,可是现在担心的越来越多,人也慢慢变得浮躁起来,嗨,不多说了,写一写这两天学到的东西,唯有写点东西才感觉心里上的踏实。 主要参考吴恩达cs229课程 作者给出问题的引入是房价的问题,房...
阅读全文
摘要:前面几天写了三维重建中的特征提取部分,下面接着写,不过今天写一下CUDA的内容,这个下面要用到,要学习,首先装环境,装了CUDA5.0,网上有一个windows7+CUDA5.0的教程,挺好的,按照那个基本上没有问题,不过实际在运行的过程中发现了一个问题,就是不同通过windows的远程桌面连接,远程桌面不能调用显卡。 于是想远程操作的则可以下载一个Symantec pcAnywhere,远程控...
阅读全文
摘要:介绍这个算法的网上的博客很多,这个百度一下就有很多篇,我写一下我的认识。 前面考虑的一个图像的特征点是角点,这边提出了,图像的特征点可以是一个斑点,就像 明显的就是部分向日葵的原型就是一个特征,而这样的特征就是斑点。不过在谈这个斑点检测的时候,我们先说一下边缘检测,边缘检测中比较有名的是Canny算法,这个这边不说,主要引出斑点检测。我们看下面一副图 我们可以知道的对于一维的(我...
阅读全文
摘要:昨天说了一些Moravec角点检测存在的问题,Harris1988年解决了部分问题。§由于噪声对像素值有影响,那我们考虑到的就是图像去噪,对每一个窗口进行去噪。 采用高斯滤波,我想可以采用其他滤波函数,之所以采用高斯滤波,有中心极限定理作为基础中心极限定理:设从均值为μ、方差为σ^2;(有限)的任意一个总体中抽取样本量为n的样本,当n充分大时,样本均值的抽样分布近似服从均值为μ、方差为σ^2/n的正态分布。 看到的图像T(x,y)=真实图像I(x,y)+噪声N(x,y),噪声N(x,y)大多数服从正态分布(高斯分布)。 通俗的讲,高斯滤波就是对整幅图像进行加权平均的过程,每一个像素点
阅读全文
摘要:特征学习什么§特征检测 -找到特征点的位置§特征描述 -在计算机中描述它们是什么§特征匹配 -找出哪两个是同一个何谓特征呢§特征 -也叫做关键点,兴趣点,也就是你可以通过这个很容易发现两幅图像中相近的部分。 -我们目前所说的特征都是局部特征红色的部分就是特征那什么是好的特征呢§不一样的地方 -在其他图像中有很明确的匹配§那我们如何定义这个所谓的不一样呢,主要两点 -不变性 •视角的变换 •尺度的变换 •旋转 •光照 -鲁棒性 •特征不随着小的变形而改变 图像噪声 图像压缩 图像模糊 真实图像改数字图像带来的变...
阅读全文

浙公网安备 33010602011771号