使用OSG显示点云时,如何正确将空白处屏幕坐标转为最接近点云的世界坐标

在OSG中绘制点云,实现画/测点、线等功能时,需要捕捉点云的坐标,但是要在空白区域绘制或测量时,就获取不到点云坐标了。

为了解决这个问题,自己推导出一个将点云空白处屏幕坐标转为最接近点云坐标的算法:

思路是:在每一次捕获真实点云时,即记录下当前点云坐标(lastCloudPoint);空白区域测点时,先将屏幕坐标转为虚拟的世界坐标,然后将坐标投影到 由 eye→center方向(eyeForward)作为法线且经过lastCloudPoint 的虚拟平面上,进而得到最靠近点云的坐标。

实际上,先计算lastCloudPoint 和 tempPt 到eye 的向量,根据两个向量到法线(eyeForward)的长度的比,得到 沿 tempPt 向量方向 由eye 到 虚拟平面的 向量,再加上eye的位置,即为与虚拟平面的交点。

               // 获取屏幕坐标(使用点云的坐标来改正)

		osg::Vec3d screenPt(ea.getX(), ea.getY(), 0);
		osg::Vec3d tempPt = screenPt * inverseVPW;    // 将屏幕坐标转为虚拟的世界坐标

		osg::Vec3d eye, center, up;
		getTransformation(eye, center, up);

		osg::Vec3d eyeForward = center - eye;

		osg::Vec3d dv1 = lastCloudPoint - eye;
		double lenght1 = dv1.length() * 
			(eyeForward * dv1 / (eyeForward.length() * dv1.length()));

		osg::Vec3d dv2 = tempPt - eye;
		double lenght2 = dv2.length() *
			(eyeForward * dv2 / (eyeForward.length() * dv2.length()));

		osg::Vec3d dPt = tempPt - eye;
		dPt.x() = dPt.x() * (lenght1 / lenght2);
		dPt.y() = dPt.y() * (lenght1 / lenght2);
		dPt.z() = dPt.z() * (lenght1 / lenght2);

		resPt = eye + dPt;        
      osg::Matrixd vwp = camera->getViewMatrix() * camera->getProjectionMatrix() * camera->getViewport()->computeWindowMatrix();	//求得 世界到屏幕的矩阵
	  osg::Matrixd  inverseVPW = osg::Matrixd::inverse(vwp);

  

  

posted @ 2019-08-09 15:01  尘世俗人  阅读(1007)  评论(0编辑  收藏  举报