目标检测学习_1(用opencv自带hog实现行人检测)


  本文主要介绍下opencv中怎样使用hog算法,因为在opencv中已经集成了hog这个类。其实使用起来是很简单的,从后面的代码就可以看出来。本文参考的资料为opencv自带的sample

   关于opencv中hog的源码分析,可以参考本人的另一篇博客:opencv源码解析之(6):hog源码分析

  开发环境:opencv2.4.2+Qt4.8.2+ubuntu12.04+QtCreator2.5.

 

  实验功能:

  单击Open Image按钮,选择需要进行人检测的一张图片,确定后自动显示出来。该图片的大小没限制。

  单击People Detect按钮,则程序会自动对该图片进行行人检测,且将检测到的效果显示出来,即用1个矩形框将行人框出来。

  单击Close按钮,退出程序。

 

  实验说明:

  1. hog描述子在opencv中为HOGDescriptor

  2. 可以调用该描述子setSVMDetector方法给用于对hog特征进行分类的svm模型的系数赋值,这里的参数为HOGDescriptor::getDefaultPeopleDetector()时表示采用系统默认的参数,因为这些参数是用很多图片训练而来的。  

  3. 对输入图片进行行人检测时由于图片的大小不一样,所以要用到多尺度检测。这里是用hog类的方法detectMultiScale。参数解释如下:

HOGDescriptor::detectMultiScale(const GpuMat& img, vector<Rect>& found_locations, doublehit_threshold=0, Size win_stride=Size(), Size padding=Size(), double scale0=1.05, int group_threshold=2)

  该函数表示对输入的图片img进行多尺度行人检测 img为输入待检测的图片;found_locations为检测到目标区域列表;参数3为程序内部计算为行人目标的阈值,也就是检测到的特征到SVM分类超平面的距离;参数4为滑动窗口每次移动的距离。它必须是块移动的整数倍;参数5为图像扩充的大小;参数6为比例系数,即滑动窗口每次增加的比例;参数7为组阈值,即校正系数,当一个目标被多个窗口检测出来时,该参数此时就起了调节作用,为0时表示不起调节作用。

   4.  最后对检测出来的目标矩形框,要采用一些方法处理,比如说2个目标框嵌套着,则选择最外面的那个框。
   5.  因为hog检测出的矩形框比实际人体框要稍微大些,所以需要对这些矩形框大小尺寸做一些调整。

实验结果: 图片1效果:

  


图片2效果:

  


图片3效果:

  


图片4效果:

  


实验主要部分代码(附录有工程code下载链接)
#include "dialog.h"
#include "ui_dialog.h"
#include <QtCore>
#include <QtGui>



Dialog::Dialog(QWidget *parent) :
    QDialog(parent),
    ui(new Ui::Dialog)
{
    ui->setupUi(this);
}

Dialog::~Dialog()
{
    delete ui;
}

void Dialog::on_openButton_clicked()
{
    QString img_mame = QFileDialog::getOpenFileName(this, "Open img", "../people", tr("Image Files(*.png *.jpg *.bmp *.jpeg)"));
    img = imread( img_mame.toAscii().data() );
    imwrite("../hog_test.jpg", img);
    ui->textBrowser->setFixedSize(img.cols, img.rows);
    ui->textBrowser->append("<img src=../hog_test.jpg>");
}

void Dialog::on_detectButton_clicked()
{
    vector<Rect> found, found_filtered;
    cv::HOGDescriptor people_dectect_hog;
    //采用默认的已经训练好了的svm系数作为此次检测的模型
    people_dectect_hog.setSVMDetector(cv::HOGDescriptor::getDefaultPeopleDetector());
    //对输入的图片img进行多尺度行人检测
    //img为输入待检测的图片;found为检测到目标区域列表;参数3为程序内部计算为行人目标的阈值,也就是检测到的特征到SVM分类超平面的距离;
    //参数4为滑动窗口每次移动的距离。它必须是块移动的整数倍;参数5为图像扩充的大小;参数6为比例系数,即测试图片每次尺寸缩放增加的比例;
    //参数7为组阈值,即校正系数,当一个目标被多个窗口检测出来时,该参数此时就起了调节作用,为0时表示不起调节作用。
    people_dectect_hog.detectMultiScale(img, found, 0, Size(8, 8), Size(32, 32), 1.05, 2);

    //从源码中可以看出:
    //#define __SIZE_TYPE__ long unsigned int
    //typedef __SIZE_TYPE__ size_t;
    //因此,size_t是一个long unsigned int类型
    size_t i, j;
    for (i = 0; i < found.size(); i++ )
        {
            Rect r = found[i];

            //下面的这个for语句是找出所有没有嵌套的矩形框r,并放入found_filtered中,如果有嵌套的
           //话,则取外面最大的那个矩形框放入found_filtered中
            for(j = 0; j <found.size(); j++)
                if(j != i && (r&found[j])==r)
                    break;
            if(j == found.size())
               found_filtered.push_back(r);
        }

    //在图片img上画出矩形框,因为hog检测出的矩形框比实际人体框要稍微大些,所以这里需要
    //做一些调整
    for(i = 0; i <found_filtered.size(); i++)
        {
            Rect r = found_filtered[i];
            r.x += cvRound(r.width*0.1);
            r.width = cvRound(r.width*0.8);
            r.y += cvRound(r.height*0.07);
            r.height = cvRound(r.height*0.8);
            rectangle(img, r.tl(), r.br(), Scalar(0, 255, 0), 3);
        }
    imwrite("../hog_test_result.jpg", img);
    ui->textBrowser->clear();
    ui->textBrowser->append("<img src=../hog_test_result.jpg>");

}

void Dialog::on_closeButton_clicked()
{
    close();
}

实验总结:
从实验的结果来看,图片检测的准确率一般,当人体遮挡情况比较严重,且背景比较复杂时,有些误检和漏检。不过程序的检查速度还行,因为源码中用做了些优化处理。

 附:工程code下载

 

 

 

 

posted on 2012-08-03 16:04  tornadomeet  阅读(67269)  评论(17编辑  收藏  举报

阿萨德发斯蒂芬