深度相机-生成点云图-23

cmake_minimum_required( VERSION 2.8 )
project( joinMap )

set( CMAKE_BUILD_TYPE Release )
set( CMAKE_CXX_FLAGS "-std=c++11 -O3" )

# opencv 
find_package( OpenCV REQUIRED )
include_directories( ${OpenCV_INCLUDE_DIRS} )

# eigen 
include_directories( "/usr/include/eigen3/" )

# pcl 
find_package( PCL REQUIRED COMPONENT common io )
include_directories( ${PCL_INCLUDE_DIRS} )
add_definitions( ${PCL_DEFINITIONS} )

add_executable( joinMap joinMap.cpp )
target_link_libraries( joinMap ${OpenCV_LIBS} ${PCL_LIBRARIES} )
#include <iostream>
#include <fstream>
using namespace std;
#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <Eigen/Geometry> 
#include <boost/format.hpp>  // for formating strings
#include <pcl/point_types.h> 
#include <pcl/io/pcd_io.h> 
#include <pcl/visualization/pcl_visualizer.h>

int main( int argc, char** argv )
{
    vector<cv::Mat> colorImgs, depthImgs;    // 彩色图和深度图
    vector<Eigen::Isometry3d, Eigen::aligned_allocator<Eigen::Isometry3d>> poses;         // 相机位姿
    
    ifstream fin("./pose.txt");
    if (!fin)
    {
        cerr<<"请在有pose.txt的目录下运行此程序"<<endl;
        return 1;
    }
    
    for ( int i=0; i<5; i++ )
    {
        boost::format fmt( "./%s/%d.%s" ); //图像文件格式
        colorImgs.push_back( cv::imread( (fmt%"color"%(i+1)%"png").str() ));
        depthImgs.push_back( cv::imread( (fmt%"depth"%(i+1)%"pgm").str(), -1 )); // 使用-1读取原始图像
        
        double data[7] = {0};
        for ( auto& d:data )
            fin>>d;
        Eigen::Quaterniond q( data[6], data[3], data[4], data[5] );
        Eigen::Isometry3d T(q);
        T.pretranslate( Eigen::Vector3d( data[0], data[1], data[2] ));
        poses.push_back( T );
    }
    
    // 计算点云并拼接
    // 相机内参 
    double cx = 325.5;
    double cy = 253.5;
    double fx = 518.0;
    double fy = 519.0;
    double depthScale = 1000.0;
    
    cout<<"正在将图像转换为点云..."<<endl;
    
    // 定义点云使用的格式:这里用的是XYZRGB
    typedef pcl::PointXYZRGB PointT; 
    typedef pcl::PointCloud<PointT> PointCloud;
    
    // 新建一个点云
    PointCloud::Ptr pointCloud( new PointCloud ); 
    for ( int i=0; i<5; i++ )
    {
        cout<<"转换图像中: "<<i+1<<endl; 
        cv::Mat color = colorImgs[i]; 
        cv::Mat depth = depthImgs[i];
        Eigen::Isometry3d T = poses[i];
        for ( int v=0; v<color.rows; v++ )
            for ( int u=0; u<color.cols; u++ )
            {
                unsigned int d = depth.ptr<unsigned short> ( v )[u]; // 深度值
                if ( d==0 ) continue; // 为0表示没有测量到
                Eigen::Vector3d point; 
                point[2] = double(d)/depthScale; 
                point[0] = (u-cx)*point[2]/fx;
                point[1] = (v-cy)*point[2]/fy; 
                Eigen::Vector3d pointWorld = T*point;
                
                PointT p ;
                p.x = pointWorld[0];
                p.y = pointWorld[1];
                p.z = pointWorld[2];
                p.b = color.data[ v*color.step+u*color.channels() ];
                p.g = color.data[ v*color.step+u*color.channels()+1 ];
                p.r = color.data[ v*color.step+u*color.channels()+2 ];
                pointCloud->points.push_back( p );
            }
    }
    
    pointCloud->is_dense = false;
    cout<<"点云共有"<<pointCloud->size()<<"个点."<<endl;
    pcl::io::savePCDFileBinary("map.pcd", *pointCloud );
    return 0;
}

这段代码是机器人视觉和 SLAM(即时定位与地图构建)中非常经典的程序:将多帧 RGB-D 图像根据相机位姿拼接成一个全局的三维点云地图

它涉及了三个核心库:OpenCV(图像处理)、Eigen(几何变换)和 PCL(点云处理)。下面我为你逐模块详细拆解:


1. 数据准备与读取

vector<cv::Mat> colorImgs, depthImgs; // 存放多帧彩色图和深度图
vector<Eigen::Isometry3d, ...> poses; // 存放每帧图片对应的相机位姿(即相机在世界坐标系里的位置)

ifstream fin("./pose.txt"); // 读取位姿文件

  • Eigen::Isometry3d: 这表示“欧式变换矩阵”(),包含旋转和平移。
  • 循环读取 (0-4): 程序默认处理 5 组数据。
  • boost::format: 一个很方便的字符串格式化工具,用来生成文件名(如 ./color/1.png)。
  • cv::imread(..., -1): 读取深度图时必须加 -1(或 IMREAD_UNCHANGED),否则 OpenCV 会把它当成普通彩色图,导致深度精度丢失。
  • 位姿转换: 从文本读取 7 个数(前 3 个是平移 ,后 4 个是四元数 )。代码将其转化为 Eigen::Isometry3d 变换矩阵 T

2. 相机内参 (Camera Intrinsics)

这是将二维像素点还原到三维空间的关键参数:

double cx = 325.5; double cy = 253.5; // 相机光心坐标
double fx = 518.0; double fy = 519.0; // 焦距
double depthScale = 1000.0;           // 深度图缩放因子(通常 1000 表示 1mm 对应数值 1)

  • 这些参数通常是通过相机标定得到的。

3. PCL 点云定义

typedef pcl::PointXYZRGB PointT; // 定义点类型:包含坐标 (XYZ) 和颜色 (RGB)
typedef pcl::PointCloud<PointT> PointCloud; // 定义点云类型
PointCloud::Ptr pointCloud( new PointCloud ); // 像智能指针一样新建一个空点云


4. 核心:从像素到三维点的转换 (投影模型)

这是程序最精华的部分,嵌套在双重循环(遍历图像行 v 和列 u)中:

第一步:获取深度

unsigned int d = depth.ptr<unsigned short> ( v )[u]; 
if ( d==0 ) continue; // 深度为0代表遮挡或距离太远,无法测量,跳过

第二步:计算相机坐标系下的三维坐标

根据针孔相机模型公式:

Eigen::Vector3d point; 
point[2] = double(d)/depthScale; 
point[0] = (u-cx)*point[2]/fx;
point[1] = (v-cy)*point[2]/fy; 

  • 此时的 point 是相对于相机本身的坐标(以摄像头为原点)。

第三步:变换到世界坐标系

Eigen::Vector3d pointWorld = T * point;

  • 由于相机在运动,每一帧的 point 都在不同位置。通过乘以位姿矩阵 T,我们将所有点都统一变换到世界坐标系(统一地图)下。

第四步:赋予颜色并填充点云

p.x = pointWorld[0]; // 写入变换后的三维坐标
// ... 
p.b = color.data[ v*color.step + u*color.channels() ]; // 获取像素颜色
// ...
pointCloud->points.push_back( p ); // 将点放入大地图中

  • 注意:OpenCV 默认颜色顺序是 BGR,所以下标 +1 是 G,+2 是 R。

5. 保存结果

pointCloud->is_dense = false; // 点云中可能存在无效点(虽然我们跳过了d=0,但习惯上设为false)
pcl::io::savePCDFileBinary("map.pcd", *pointCloud ); // 以二进制格式保存点云

  • 保存生成的 map.pcd 文件后,你可以使用工具(如 pcl_viewer map.pcd)在电脑上看到一个精美的一比一还原的三维空间场景。

总结:学会这个流程你需要记住的

  1. 读数据:彩色图取色,深度图取距离,位姿取位置。
  2. 算坐标:利用内参()把 变成 。
  3. 拼地图:利用位姿 把每一帧的坐标转到同一个世界坐标系。
  4. 存文件:用 PCL 库把这些点聚在一起存成 .pcd

这段代码是三维重建的“基石”,理解了它,你就迈进了 SLAM 算法的大门!

posted @ 2026-01-26 11:53  jack-chen666  阅读(7)  评论(0)    收藏  举报