上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 17 下一页
摘要: 转自:谈谈超平面(hyperplane)有些东西,还是说清楚的好,比如超平面(hyperplane)这个东西。直线、平面在说超平面之前,先说说Rn空间中的直线和平面。给定Rn空间中的一点p和一非负向量v⃗,满足i=tv⃗+p的点i的集合称为Rn空间中的一条直线。上式中t是一个标量,向量v⃗决定了该直线的方向。如图1所示:图1:line figure illustration相对的,给定Rn空间中的一点p和两个线性无关的向量v⃗,w⃗,满足i=tv⃗+sw⃗+p的点i的集合称为Rn空间中的一个平面。上式中t,s均是标量。如图2所示:图2:plane figure illustration更一般的 阅读全文
posted @ 2011-09-08 10:29 hailong 阅读(3710) 评论(0) 推荐(0) 编辑
摘要: 根据http://bbs.esrichina-bj.cn/ESRI/viewthread.php?tid=99423&highlight=实现:float get_ndvi(IplImage* img){ CvScalar Scalar; Scalar = cvSum(img);波段和 return float(Scalar.val[1]-Scalar.val[2])/float(Scalar.val[1]+Scalar.val[2]);} 阅读全文
posted @ 2011-09-06 22:51 hailong 阅读(429) 评论(0) 推荐(1) 编辑
摘要: Please I am about to cluster some data based which have about 15 different columns all of which are numbers(Some categorical while some are measurements) also some of my values are missing in some columns . Please can you give me pointer on how to go about it.I have previously explored the clusterin 阅读全文
posted @ 2011-09-06 17:12 hailong 阅读(435) 评论(0) 推荐(0) 编辑
摘要: 作者:finallyliuyu转载使用等请注明出处源地址其实是http://www.cnblogs.com/finallyliuyu/archive/2010/09/04/1817858.html,作者给出个百度的链接,不解啊首先介绍libsvm 中主要的文件svm.h,svm.c ,这个两个文件实现了svm的算法。 svm-train.c,svm-predict.c 分别完成训练和预测功能。本来我参照svm-train,svm-predict中的 main函数,将train功能,和predict功能直接在程序中整合,结果,调了一天都有异常。。(我还是太菜了)最后在同学的建议下 工程中改用系统 阅读全文
posted @ 2011-09-05 21:32 hailong 阅读(656) 评论(0) 推荐(0) 编辑
摘要: ALT+F8全选代码,自动对齐! 阅读全文
posted @ 2011-09-05 09:37 hailong 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 1、波段均值C1=像素和/像素数(也就是轮廓面积)double CImageDoc::get_band_ava(int curRegion)2、亮度C2=(三个波段均值)/3double CHC::get_intensity(int label)3.标准差C3=先mark一下吧,不知道在博客里怎么编辑公式,囧啊延时操作:1.VC中使用sleep()函数实现延时,它的单位是ms,如延时2秒,用sleep(2000)。精度非常 低,最小计时精度仅为30ms,用sleep函数的不利处在于延时期间不能处理其他的消息,如果时间太长,就好象死机一样,CPU占用率非常高,只能用于 要求不高的延时程序中。当然 阅读全文
posted @ 2011-09-04 22:29 hailong 阅读(333) 评论(0) 推荐(0) 编辑
摘要: 在图形识别方面,主成分分析(Principal Comonents Analysis,PCA)算是比较快速而且又准确的方式之一,它可以对抗图形平移旋转的事件发生,并且藉由主要特征(主成分)投影过后的数据做数据的比对,在多个特征信息里面,取最主要的K个,做为它的特征依据,在这边拿前面共变量矩阵的数据来做沿用,主成分分析使用的方法为计算共变量矩阵,在加上计算共变量矩阵的特征值及特征向量,将特征值以及所对应的特征向量排序之后,取前面主要K个特征向量当做主要特征,而OpenCV也可以对高维度的向量进行主成分分析的计算。PCA(principal component analysis)翻译过来就是主分. 阅读全文
posted @ 2011-09-03 22:30 hailong 阅读(4739) 评论(0) 推荐(0) 编辑
摘要: 原理:进行缩放的原因和使用神经网络时的考虑是一样的,由于RBF网络中采用样本数据的欧式距离来计算。主要优点就是避免数值范围较大的属性控制数值范围较小的属性。另一个优点就是避免计算时的numerical difficulties. 因为核值通常依赖特征向量的内积(inner product),而较大的属性值可能导致numerical问题。因此推荐把每个属性缩放到[-1, 1]或者[0, 1]之间,而且前一个范围要比后一个好,即对列向量进行规范化,其详细解释和计算公式见http://www.faqs.org/faqs/ai-faq/neural-nets/part2/中的“Should I sta 阅读全文
posted @ 2011-09-03 15:16 hailong 阅读(2964) 评论(0) 推荐(0) 编辑
摘要: 大数相加,转的算法很明显:#include <stdio.h>#include <string.h> char a[105],b[105]; char* add(char *a,char *b){ int i,j,k = 0,tmp[105],l1 = strlen(a),l2 = strlen(b); for (i = l1-1,j = l2-1;i >= 0 && j >= 0;--i,--j) tmp[k++] = a[i]+b[j]-'0'-'0'; for (;i >= 0;--i) tmp[k 阅读全文
posted @ 2011-09-02 20:36 hailong 阅读(285) 评论(0) 推荐(0) 编辑
摘要: 搞了一个上午啊,伤不起啊:还没搞完啊: 中午有了点思路,何苦保存完数据再这么纠结地修改数据呢?直接在保存源数据的时候,适当修改程序保存成libsvm的格式不就行了吗?下午从寺里回来,不到10分钟就搞定的,有木有啊?解决方法:数字转string函数:template <class T>string num_to_string(T N){ strstream ss; string s; ss << N; ss >> s; return s;} 继续各种转换,但是一个函数内实现:string CImageDoc::convert_libsvm_txt(int i, 阅读全文
posted @ 2011-09-02 11:40 hailong 阅读(1400) 评论(0) 推荐(0) 编辑
摘要: libsvm网站提供给初学者的文档:A Practical Guide to Support Vector Classi cation下载地址:http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf其中比较重要的是FAQ:http://www.csie.ntu.edu.tw/~cjlin/libsvm/faq.html#f307其他格式转换成libsvm格式的C程序:/* convert cvs data to libsvm/svm-light format */#include <stdio.h>#include < 阅读全文
posted @ 2011-09-02 08:29 hailong 阅读(352) 评论(0) 推荐(0) 编辑
摘要: 转自:坯子交叉验证(Cross validation),有时亦称循环估计, 是一种统计学上将数据样本切割成较小子集的实用方法。于是可以先在一个子集上做分析, 而其它子集则用来做后续对此分析的确认及验证。 一开始的子集被称为训练集。而其它的子集则被称为验证集或测试集。交叉验证是一种评估统计分析、机器学习算法对独立于训练数据的数据集的泛化能力(generalize),交叉验证一般要尽量满足:1)训练集的比例要足够多,一般大于一半2)训练集和测试集要均匀抽样交叉验证主要分成以下几类:1)k-folder cross-validation:k个子集,每个子集均做一次测试集,其余的作为训练集。交叉验证重 阅读全文
posted @ 2011-09-01 10:54 hailong 阅读(6094) 评论(0) 推荐(1) 编辑
摘要: 看到网上各种牛人,表示很有鸭梨啊!传送门:总结一些常出现的面试题:1、网络编程问题 ,Socket通信的连接过程,具体到使用什么函数。建立连接的三次握手和断开连接的四次挥手是怎么进行的。服务器端的多线程、多进程问题,服务器端处理大规模连接如何处理。还有就是进程同步、锁、和进程通信应该怎么实现。这些在《Unix网络编程》都可以找到答案。2、算法的题,就是经常会出些动态规划和查找相关的,dp基本都是最基本的经典题目,比如最长公共子序列、最大子段和、最长不降子序列、背包什么的,稍微了解算法的人,都应该会的。查找,考的最多的应该就是从一个很大的集合中,找出前K个最大的数,用快排中的Partition思 阅读全文
posted @ 2011-08-31 20:21 hailong 阅读(266) 评论(0) 推荐(0) 编辑
摘要: 9.1华为笔试上机考试啊,赶紧复习下字符串。网上参考了下,自己写了个实现:#include<iostream>#include "stdio.h"using namespace std;char temp[100];void my_swap(char &a,char &b){ char temp1 = a; a = b; b = temp1;}void res_num(int num){ int i = 0; while (num) { temp[i++] = num%10 + '0'; num /= 10; } cout < 阅读全文
posted @ 2011-08-29 10:46 hailong 阅读(525) 评论(1) 推荐(0) 编辑
摘要: from猴子manifold learning 流形学习流形学习是个很广泛的概念。这里我主要谈的是自从2000年以后形成的流形学习概念和其主要代表方法。自从2000年以后,流形学习被认为属于非线性降维的一个分支。众所周知,引导这一领域迅速发展的是2000年Science杂志上的两篇文章: Isomap and LLE (Locally Linear Embedding)。1. 流形学习的基本概念那流形学习是什莫呢?为了好懂,我尽可能应用少的数学概念来解释这个东西。所谓流形(manifold)就是一般的几何对象的总称。比如人,有中国人、美国人等等;流形就包括各种维数的曲线曲面等。和一般的降维分析 阅读全文
posted @ 2011-08-29 09:12 hailong 阅读(1185) 评论(0) 推荐(0) 编辑
摘要: http://people.cs.uchicago.edu/~niyogi/http://www.cs.uchicago.edu/people/http://pages.cs.wisc.edu/~jerryzhu/http://www.kyb.tuebingen.mpg.de/~chapellehttp://people.cs.uchicago.edu/~xiaofei/http://www.cs.uiuc.edu/homes/dengcai2/http://www.kyb.mpg.de/~bshttp://research.microsoft.com/~denzho/http://www-u 阅读全文
posted @ 2011-08-29 09:08 hailong 阅读(531) 评论(0) 推荐(1) 编辑
摘要: 在这里先mrak下:作者:skyseraph 出处:http://www.cnblogs.com/skyseraph/ 我修改了下代码的粘贴方式,这样方便大家学习啊,呵呵!!头文件ZGLCM.h// FeatureDetect.h: interface for the FeatureDetect class. // /////////////////////////////////////////////////////////////////////////////////////// /* Author: skyseraph/zhaobo 2011/4 zgzhaob... 阅读全文
posted @ 2011-08-28 22:36 hailong 阅读(619) 评论(0) 推荐(0) 编辑
摘要: #include "iostream"using namespace std;#include "cv.h"#include "highgui.h"const char* filename = "E:\\beichun_small.jpg"; int main(int argc, char* argv[]){ CvMoments moments; CvHuMoments hu_moments; IplImage* image = cvLoadImage(filename); if (!image) { std::c 阅读全文
posted @ 2011-08-28 22:24 hailong 阅读(1155) 评论(0) 推荐(0) 编辑
摘要: 因为FANN是在C下编写的,对C++支持不好,开始建立C++文件,发现调用的时候出现了模板调用之类的错误,而运行FANN自带的VC6.0工程却正确运行,后来发现他们写的都是C文件。1.首先把fann-2.1.0下MicrosoftVisualC++6.0的all.daw用VC6.0打开,rebulid all2.建立新工程,把fann的include包含进去3.并把fann里面的libfann.lib放进当前文件夹下,否则会出现link错误4.新建main.c文件网络训练下面的例子展示了如何利用数据集训练网络,并保存网络:#include <stdio.h>#include &qu 阅读全文
posted @ 2011-08-27 17:41 hailong 阅读(1336) 评论(0) 推荐(0) 编辑
摘要: FANN快速人工神经网络是一个免费开源库,它用C语言实现了多层神经网络。它包含一系列易于得到的训练集,而且易用,功能多,文档丰富。一些图形界面也可以从库中得到。FANN特点:在C下多层人工神经网络库反向传播训练动态创建和训练神经网络以进行拓扑训练易于使用(创建,训练和运行一个神经网络只用三个函数)快(比其他库的执行快150倍)通用(可以调整许多参数和功能)有据可查几种不同的激活功能易于保存和加载整个人工神经网络几个简单的使用例子可以使用浮点和定点数字(float, double and int都可以)缓存优化开源的,但仍然可以在商业应用容易处理的训练数据集的框架图形界面 阅读全文
posted @ 2011-08-27 17:19 hailong 阅读(1661) 评论(0) 推荐(0) 编辑
摘要: 1)通过菜单工程/选项,打开设置属性页,进入 Directories 页面,在目录下拉列表框中选择Include files,添加路径:"C:\matlab\extern\include"(假定 matlab 安装在C:\matlab 目录) 。2)选择 Library files,添加路径:C:\matlab\extern\lib\win32\microsoft\msvc60。3)通过菜单工程/设置,打开工程设置属性页,进入 Link 页面,在 Object brary modules编辑框中,添加文件名 libmx.lib libmat.lib libeng.lib不过 阅读全文
posted @ 2011-08-25 21:25 hailong 阅读(932) 评论(0) 推荐(0) 编辑
摘要: 写了一段代码,“123.456”倒是可以,长点的数据貌似就不行啦:#include <iostream>#include <string>int my_power(int n){ int temp = 1; while (n--) temp *= 10; return temp;}float string_to_float(std::string s){ int n = s.size(); int i = 0; float temp1 = 0.0f,temp2=0.0f; while (i < n && s[i] != '.') { 阅读全文
posted @ 2011-08-25 16:24 hailong 阅读(1512) 评论(3) 推荐(0) 编辑
摘要: 从去年7月份到现在1年多了有木有,就为了得到这种神马分类图的有木有?现在搞到了,不过感觉这么没技术水平的有木有?现在贴出来好好观摩下,以后就照这个慢慢发展的有木有? 阅读全文
posted @ 2011-08-24 17:36 hailong 阅读(193) 评论(0) 推荐(0) 编辑
摘要: an for the object of samplify, i only choose 3 classes while 2 samples for each class ,there are 18 features in every sample .train_data=load('E:\sample_feature.txt');train_label=load('E:\train_label.txt');test_data=load('E:\features.txt');k=knnclassify(test_data,train_data,t 阅读全文
posted @ 2011-08-24 11:08 hailong 阅读(3465) 评论(1) 推荐(0) 编辑
摘要: 1. 样本集的整理:提取特征,以LIBSVM指定格式存储。2. 特征的标准化处理:特征的缩放Scaling,避免量纲的影响。3. 选择合适的核函数类型4. 优选核函数的参数与C采用:交叉验证(或留一法)、grid-search5. 基于优选的参数,利用训练集,进行SVM模型的训练6. (预测)分类器的性能测试 7. 分类摘自 人工智能论坛jink2005版主 阅读全文
posted @ 2011-08-23 17:25 hailong 阅读(409) 评论(0) 推荐(0) 编辑
摘要: 样本和数据应该分开;策略:1.首先选择样本,并在数组中记录ID2.保存数据特征时进行重复性判断保存即可。伪代码:choose samplevector vt<- sample_region_ID && File sample_file <- sample_featuresave featuressearch in vt if not in vt then save features 阅读全文
posted @ 2011-08-22 20:59 hailong 阅读(157) 评论(0) 推荐(0) 编辑
摘要: 果然是是科研人才啊:都是很技术的话题,我整理了一下,废话给省了(黑体字是我说的,红体字是那位大牛说的)问个问题啊:有篇博客上说:“调整权重时,SVM是全局最优,ANN是局部最优”怎么理解啊 ANN得到的几乎永远是局部最优 , ANN的optimization是非凸的。 除非使用极个别的输入函数,ANN才可能是凸的。SVM的optimization是凸的,很容易得到全局最优。 全局最优和局部最优 对分类有什么影响吗 对于实际性能来说,区别不大。,凸的模型很容易受到complexity的限制。 SVM复杂度,它的优势不是处理高纬空间吗 ,通过核函数以内积形式映射到高维空间,不是不怕复杂吗 普通的r 阅读全文
posted @ 2011-08-22 16:34 hailong 阅读(909) 评论(0) 推荐(0) 编辑
摘要: http://zllxsha.blog.163.com/blog/static/50555091201010981932412/bypiglet在网上找了很久关于libsvm 在vc上的移植,网上大部分讲的都是两类的分类在此分享下,我实现了多类的分类代码对于提取的数据,可能在部分的地方需要修改,比如样本的个数等当然,工程中需要包含svm.h,svm.cpp代码如下:#include <stdio.h>#include <ctype.h>#include <list>#include "svm.h" //包涵本目录下的SVM.H头文件#in 阅读全文
posted @ 2011-08-22 11:05 hailong 阅读(1461) 评论(0) 推荐(1) 编辑
摘要: libsvm内部规定了标准格式:1 1:203 2:197 3:190 4:188 5:22372 1:204 2:196 3:190 4:186 5:22283 1:203 2:196 3:190 4:186 5:22424 1:204 2:197 3:191 4:188 5:2265 我现在保存的数据时:15 292.076 368.5060 9878.14 6384.541 2552.04 1975.082 7068.21 3751.983 38925.4 28155.55 6546.16 6190.88 ... 阅读全文
posted @ 2011-08-21 22:23 hailong 阅读(582) 评论(0) 推荐(0) 编辑
摘要: 就是光滑度和紧致度,这个实现起来还是比较简单的,不过不知道这两个特征作用到底有多大啊! 阅读全文
posted @ 2011-08-21 14:03 hailong 阅读(222) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 17 下一页