特征生成

特征准则

区分性:不同类别模式在特征空间可分

不变性:同一类别模式在特征空间的变化(变化、形变、噪声)
选取区分性高、且同意一定不变性的特征




特征生成的一些方法
1 时域、频域、视频联合
相关系数、FFT、DCT、Wavelet、Gabor
2 统计、结构、混合
直方图、属性-关系图
3 底层、中层、高层
颜色、梯度(Robert、Prewitt、Sobel、差分+平滑、HOG)、纹理(类Harr、LBP)、形状、语义
4 模型
ARMA、LPC


三个实例


A SIFT
1 建立高斯金字塔 做差生成DOG(LOG)的近似
2 求取极值点,并依据导数求取优化极值点
3 依据Hessian矩阵(能够自相关函数)去掉边缘和不稳定的点
4 进行梯度描写叙述


详细步骤參考《图像局部不变性特征与描写叙述》及 http://underthehood.blog.51cto.com/2531780/658350 
带有SIFT凝视的代码,请參考




B Bag of Words
1 聚类-构建词典
2 映射到词典,然后SVM等其它分类器进行训练分类就可以


详细点有
1 Feature extraction
2 Codebook generation
3 Coding(Hard or Soft)
4 Polling(Average or Max)
5 Classify



"
如今Computer Vision中的Bag of words来表示图像的特征描写叙述也是非常流行的。

大体思想是这种,如果有5类图像。每一类中有10幅图像。这样首先对每一幅图像划分成patch(能够是刚性切割也能够是像SIFT基于关键点检測的),这样。每个图像就由非常多个patch表示,每个patch用一个特征向量来表示,咱就如果用Sift表示的,一幅图像可能会有成百上千个patch,每个patch特征向量的维数128。


接下来就要进行构建Bag of words模型了,如果Dictionary词典的Size为100,即有100个词。那么咱们能够用K-means算法对全部的patch进行聚类,k=100,我们知道,等k-means收敛时。我们也得到了每个cluster最后的质心。那么这100个质心(维数128)就是词典里德100个词了,词典构建完成。


词典构建完了怎么用呢?是这种,先初始化一个100个bin的初始值为0的直方图h。每一幅图像不是有非常多patch么?我们就再次计算这些patch和和每个质心的距离,看看每个patch离哪一个质心近期,那么直方图h中相相应的bin就加1,然后计算完这幅图像全部的patches之后,就得到了一个bin=100的直方图。然后进行归一化。用这个100维德向量来表示这幅图像。

对全部图像计算完毕之后。就能够进行分类聚类训练预測之类的了。
"


C 图像显著性
1 多尺度对照
2 中心周围直方图
3 颜色空间分布





posted @ 2016-01-18 09:59  yxwkaifa  阅读(1259)  评论(0编辑  收藏  举报