实现线结构光技术的摄像机标定、光平面标定与三维重建

一、核心概念与流程概述

线结构光视觉系统通过线激光器投射激光平面(光刀)到物体表面,形成变形的激光条纹,再由摄像机拍摄条纹图像。通过标定摄像机内外参数激光平面方程,可将图像中的条纹像素坐标转换为物体表面的三维坐标,实现三维重建。

核心流程

  1. 摄像机标定:获取相机内参(焦距、主点、畸变系数)与外参(相机与世界坐标系的转换关系),常用张正友平面标定法

  2. 光平面标定:确定激光平面在相机坐标系下的方程(\(Ax+By+Cz+D=0\)),常用多帧激光条纹拟合圆形靶标法

  3. 三维重建:提取图像中的激光条纹中心线,结合相机参数与光平面方程,计算每个点的三维坐标,常用激光三角法

二、详细步骤与MATLAB实现

1. 摄像机标定(张正友平面标定法)

目的:获取相机内参(K)与畸变系数(distortion),用于后续像素坐标到相机坐标系的转换。

步骤

  • 采集标定板图像:使用棋盘格标定板(如9×6方格),拍摄10-20张不同角度的图像(覆盖相机视场)。

  • 提取角点:使用MATLAB的detectCheckerboardPoints函数提取图像中的棋盘格角点。

  • 计算参数:使用estimateCameraParameters函数计算相机内参、畸变系数与每幅图像的外参。

MATLAB代码示例

% 1. 读取标定板图像
imageDir = 'path/to/checkerboard/images'; % 标定板图像文件夹路径
imageFiles = dir(fullfile(imageDir, '*.jpg')); % 获取所有JPG图像
imagePoints = cell(1, length(imageFiles)); % 存储每幅图像的角点

% 2. 提取棋盘格角点
for i = 1:length(imageFiles)
    img = imread(fullfile(imageDir, imageFiles(i).name));
    if size(img, 3) == 3
        img = rgb2gray(img); % 转为灰度图
    end
    [points, boardSize] = detectCheckerboardPoints(img); % 检测角点
    imagePoints{i} = points; % 存储角点
end

% 3. 生成世界坐标(棋盘格方格大小,单位:毫米)
squareSize = 10; % 方格边长(根据实际标定板调整)
worldPoints = generateCheckerboardPoints(boardSize, squareSize);

% 4. 标定相机
[cameraParams, ~, ~] = estimateCameraParameters(imagePoints, worldPoints, ...
    'EstimateTangentialDistortion', true, 'NumRadialDistortionCoefficients', 3);

% 5. 查看标定结果(内参、畸变系数)
disp('相机内参矩阵:');
disp(cameraParams.IntrinsicMatrix);
disp('畸变系数:');
disp(cameraParams.RadialDistortion);

2. 光平面标定

目的:获取激光平面在相机坐标系下的方程(Ax+By+Cz+D=0),用于后续三维坐标计算。

原理:激光平面投射到标定板(如棋盘格)上,形成激光条纹。通过提取条纹的像素坐标,结合相机参数与标定板的外参,可计算条纹点在相机坐标系下的三维坐标,再用最小二乘法拟合光平面。

步骤

  • 采集激光条纹图像:将激光投射到标定板上,拍摄多张(5-10张)不同位置的条纹图像。

  • 提取条纹中心:使用Steger算法灰度质心法提取条纹的亚像素中心(提高精度)。

  • 计算三维坐标:对每幅图像,用worldToCameraCoordinates函数将条纹点的像素坐标转换为相机坐标系下的三维坐标(需用到标定板的外参)。

  • 拟合光平面:使用pcfitplane函数(点云工具箱)或最小二乘法拟合光平面方程。

MATLAB代码示例

% 1. 读取激光条纹图像
stripeDir = 'path/to/stripe/images'; % 激光条纹图像文件夹路径
stripeFiles = dir(fullfile(stripeDir, '*.jpg'));
stripePoints = cell(1, length(stripeFiles)); % 存储每幅图像的条纹中心

% 2. 提取条纹中心(以Steger算法为例,需自行实现或调用第三方函数)
for i = 1:length(stripeFiles)
    img = imread(fullfile(stripeDir, stripeFiles(i).name));
    if size(img, 3) == 3
        img = rgb2gray(img);
    end
    stripePoints{i} = steger_algorithm(img); % 提取亚像素中心(假设已实现)
end

% 3. 计算条纹点的相机坐标系三维坐标
cameraCoords = []; % 存储所有条纹点的相机坐标
for i = 1:length(stripeFiles)
    % 获取该图像的外参(标定板与相机的位置关系)
    [rotationMatrix, translationVector] = extrinsicsFromCheckerboard(cameraParams, imagePoints{i}, worldPoints);
    % 将像素坐标转换为相机坐标
    pixels = stripePoints{i};
    for j = 1:size(pixels, 1)
        pixel = pixels(j, :);
        % 去畸变(可选,若已用undistortImage处理图像则可跳过)
        undistortedPixel = undistortPoints(pixel, cameraParams.IntrinsicMatrix, cameraParams.DistortionCoefficients);
        % 转换为相机坐标(Zc为深度,需通过标定板平面方程求解,见下文)
        [Xc, Yc, Zc] = pixelToCameraCoords(undistortedPixel, cameraParams, rotationMatrix, translationVector);
        cameraCoords = [cameraCoords; Xc, Yc, Zc];
    end
end

% 4. 拟合光平面(最小二乘法)
% 光平面方程:Ax + By + Cz + D = 0 → 改写为 Ax + By + Cz = -D(令D' = -D,方程为Ax + By + Cz = D')
% 用所有相机坐标点拟合A、B、C、D'
A = cameraCoords(:, 1);
B = cameraCoords(:, 2);
C = cameraCoords(:, 3);
D = ones(size(A)); % 常数项
coefficients = [A, B, C, D] \ zeros(size(A)); % 最小二乘解(等价于拟合Ax + By + Cz + D = 0)
planeNormal = coefficients(1:3); % 平面法向量(A,B,C)
planeD = coefficients(4); % 常数项(D)
disp('光平面方程系数(Ax + By + Cz + D = 0):');
disp([planeNormal, planeD]);

3. 三维重建

目的:将图像中的激光条纹像素坐标转换为物体表面的三维坐标(世界坐标系)。

原理激光三角法——激光平面与相机光心形成三角形,通过条纹点的像素坐标计算其在相机坐标系下的深度(Zc),再结合光平面方程求解三维坐标。

步骤

  • 采集目标图像:将激光投射到目标物体上,拍摄条纹图像。

  • 提取条纹中心:同光平面标定的步骤2(使用Steger算法或灰度质心法)。

  • 计算三维坐标:对每幅图像,用pixelToWorldCoords函数将条纹点的像素坐标转换为世界坐标系下的三维坐标(需用到相机外参与光平面方程)。

  • 点云拼接:将多幅图像的三维点云拼接成一个完整的模型(需用到相机的运动参数,如旋转矩阵)。

MATLAB代码示例

% 1. 读取目标图像
targetImg = imread('path/to/target/image.jpg');
if size(targetImg, 3) == 3
    targetImg = rgb2gray(targetImg);
end
% 2. 提取条纹中心
targetStripePoints = steger_algorithm(targetImg); % 亚像素中心

% 3. 计算目标点的世界坐标
worldCoords = []; % 存储目标点的世界坐标
% 假设目标图像的外参(相机与世界坐标系的转换关系)已知(如通过IMU或编码器获取)
rotationMatrixTarget = eye(3); % 目标图像的旋转矩阵(示例,需实际测量)
translationVectorTarget = [0; 0; 0]; % 目标图像的平移向量(示例,需实际测量)
for i = 1:size(targetStripePoints, 1)
    pixel = targetStripePoints(i, :);
    % 去畸变
    undistortedPixel = undistortPoints(pixel, cameraParams.IntrinsicMatrix, cameraParams.DistortionCoefficients);
    % 转换为相机坐标(Zc为深度,通过光平面方程求解)
    [Xc, Yc, Zc] = pixelToCameraCoordsWithPlane(undistortedPixel, cameraParams, planeNormal, planeD);
    % 转换为世界坐标(世界坐标系 = 相机坐标系 × 旋转矩阵 + 平移向量)
    worldCoord = rotationMatrixTarget * [Xc; Yc; Zc] + translationVectorTarget;
    worldCoords = [worldCoords; worldCoord'];
end

% 4. 可视化点云(需安装Point Cloud Toolbox)
ptCloud = pointCloud(worldCoords);
figure;
pcshow(ptCloud);
xlabel('X (mm)');
ylabel('Y (mm)');
zlabel('Z (mm)');
title('三维重建点云');

参考代码 采用线结构光技术对摄像机进行标定、光平面标定和三维重建 www.youwenfan.com/contentcnq/51731.html

三、关键优化技巧

1. 图像处理优化

  • 高斯滤波:去除图像噪声,提高条纹中心提取精度(imgaussfilt函数)。

  • 亚像素中心提取:使用Steger算法(基于 Hessian 矩阵)或灰度质心法(计算条纹截面的重心),替代传统的极值法,提高精度。

  • 阈值分割:用imbinarize函数将条纹与背景分离,减少干扰。

2. 光平面标定优化

  • 多帧拟合:采集多张(5-10张)激光条纹图像,增加标定点数量,提高光平面拟合精度。

  • 圆形靶标法:使用圆形标定板(如2维圆形靶标),提取条纹与圆的交点,替代棋盘格,提高标定点的一致性(见文献[10])。

3. 三维重建优化

  • 点云拼接:使用ICP算法(Iterative Closest Point)将多幅图像的点云拼接成一个完整的模型(pcregistericp函数)。

  • 反光处理:对于光滑表面(如金属),使用多直线约束(见文献[20])剔除反光点——标定每个激光点的光路直线,判断重建点是否在直线上,超过阈值则剔除。

  • GPU加速:使用gpuArray函数将点云数据转换为GPU数组,加速计算过程(适用于大规模点云)。

四、常见问题与解决方法

  1. 条纹中心提取不准确

    • 原因:噪声、反光、条纹模糊。

    • 解决方法:使用高斯滤波预处理,调整激光强度,用Steger算法提取亚像素中心。

  2. 光平面拟合误差大

    • 原因:标定点数量少、相机参数不准确。

    • 解决方法:增加标定点数量(多拍几张图像),重新标定相机(确保标定板覆盖视场)。

  3. 三维重建点云稀疏

    • 原因:激光条纹覆盖范围小、图像数量少。

    • 解决方法:增加激光条纹的密度(如使用多线激光器),拍摄更多图像(覆盖物体全表面)。

五、总结

线结构光技术的核心是“标定”——相机标定是基础,光平面标定是关键,三维重建是目标。通过结合张正友标定法激光三角法MATLAB工具,可实现高精度的三维重建。优化技巧(如亚像素中心提取、多帧拟合、点云拼接)能有效提高系统性能,适用于工业检测、逆向工程、文物修复等领域。

posted @ 2026-01-24 14:22  荒川之主  阅读(1)  评论(0)    收藏  举报