当前位置: 查字典论文网 >> 多视图场景确定下的空间点位置视觉标定方法

多视图场景确定下的空间点位置视觉标定方法

格式:DOC 上传日期:2020-01-16 14:32:31
多视图场景确定下的空间点位置视觉标定方法
时间:2020-01-16 14:32:31     小编:

摘要:针对空间特征点三维位置标定问题,提出一种多视图场景确定下的空间点位置视觉标定方法。该方法基于计算机视觉原理,通过在场景内放置棋盘模板确定图像场景位姿参数,而后根据多视图图像下的空间点图像坐标和场景位姿参数求解空间点三维位置坐标。试验结果表明,该方法下的空间点标记位置与真实位置间的距离误差小于1 mm,适用于高精度要求下的特征点位置标定。

关键词:检测技术与自动化装置;三维位置标定;视觉标定;多视图

中图分类号:TP391.41 文献标志码:A 文章编号:1005-2615(2015)03-0343-05

Vision Calibration Method of Spatial Point Position Under Multi-View Scene Determination

Sun Yongrong,Huang Bin,Yang Bowen,Shan Yao

Abstract:To solve the three-dimensional(3-D) position calibration problem of spatial feature points, a vision calibration method of spatial point position under multi-view scene determination is proposed. Based on the computer vision principle, the scene pose of image is determined through placing a chessboard pattern in the scene, and then the 3-D position of spatial point is solved by using the image coordinates of spatial point in multi-view images and the scene poses of multi-view images. Results show that the 3-D position of spatial point calibrated by the method has a distance error less than 1 mm. which means the method is suitable for high-accuracy point position calibration.

Key words: measurement technique and automation equipment; 3-D position calibration; vision calibration; multiple views

位姿参数测量在机器人导航[1]、光电瞄准、航空航天[2]等领域有重要的作用,视觉位姿测量因其非接触、结构简单、成本低、近距精度高等优点而受到广泛关注[3]。在计算机视觉研究领域,基于点、直线、圆等几何特征的视觉位姿求解已成为一个重要的研究方向,点作为最简单的几何特征常用来解算物体与相机之间的相对位姿参数[4-5]。

点特征视觉位姿测量技术在微型飞行器室内导航、卫星近距接近导航、头盔瞄准具等场合得到广泛应用[6-8]。点特征视觉位姿确定需要预先提供特征点的空间三维位置,较大误差的特征点三维位置坐标会带来较大误差的视觉位姿解算结果[9]。而在某些不规则物体(如近似球形的航空头盔)上布置特征点时,常规测量手段无法提供特征点的精确位置。

收稿日期:2015-03-09;修订日期:2015-04-28

本文以解决不规则分布的空间特征点位置标定问题为目标,提出一种多视图场景确定下的空间点位置视觉标定方法,即利用标定模板先标定各个图像的场景位姿参数,而后利用多视图图像下的空间特征点图像坐标和场景位姿参数求解空间点三维位置坐标。该方法为高精度的不规则分布空间特征点三维位置测量提供了新的思路,其结果可直接应用到不规则物体的视觉位姿测量。

1 摄像机模型及坐标系关系

选用针孔摄像机模型,涉及到的坐标系如图1所示,包括:摄像机坐标系,图像坐标系以及世界坐标系。其中Xc轴与U轴平行,Yc轴与v轴平行,Oc为光心。

根据透视投影关系,针孔摄像机模型下的坐标变换关系可表示为

式中:;K为摄像机内参标定矩阵;R和t分别为世界坐标系相对于摄像机坐标系的旋转矩阵和平移向量;为某特征点在世界坐标系下的坐标;为其在摄像机坐标系下的坐标;为该特征点对应成像点的在图像坐标系下的坐标;上标1表示对应的齐次坐标。

2 空间点三维位置视觉标定方法

为了对空间特征点的三维位置进行标定,本文设计了一种多视图场景确定下的空间点视觉标定方法,其基本思路是:利用棋盘模板确定某幅图像的场景位姿参数,而后利用多视图的场景位姿参数解算空间点的三维位置坐标。方法的基本流程如图2所示,其中棋盘角点用来确定场景位姿参数,而空间特征点的三维位置待标定。

从图2中可以看出,图像的场景位姿参数可利用棋盘角点图像坐标和预设的棋盘角点世界系坐标获得,而空间特征点的世界系坐标则可利用多幅图像的场景位姿参数和空间特征点的图像坐标求解获得。下面就分别介绍基于棋盘角点的图像场景确定方法和多视图下的三维位置标定方法。

2.1 棋盘角点的图像场景确定

基于棋盘角点的图像场景确定问题的数学模型如下:已知相机标定矩阵K,棋盘角点图像坐标和,其中k表示棋盘角点的编号,求图像场景位姿参数(R,t)。仅考虑所有棋盘角点共面的情况,建立世界坐标系使XwYw平面与棋盘平面重合,即。 根据式(1)可得到关系式

结合已知条件,可建立如下的线性方程

式中:I为为3×3的单位矩阵;r1和r2分别为R第1列和第2列的列向量。

根据式(3),利用多个棋盘角点的图像坐标建立线性方程组.并采用奇异值分解(SVD)方法求解,进而可获得(R,t)的线性估计解(R0,t0)。以线性估计解(R0,t0)为初始值,采用Leverberg Maquardt非线性优化方法进行迭代,使得棋盘角点的图像重投影误差最小,从而获得最优的场景位姿参数(R,t)。

2.2 多视图下的三维位置标定

多视图下的二维位置标定问题的数学模型如下:已知相机标定矩阵K,空间特征点图像坐标和图像位姿参数(Rm,tm),其中m表示多视图图像编号,求。

利用式(2)建立如下的线性方程

根据式(4),利用多幅图像下的空间特征点图像坐标和场景位姿参数建立线性方程组,并采用最小二乘法求解Xw的线性估计解Xw0。以线性估计解Xw0为初始值,采用Leverberg Maquardt非线性优化方法进行迭代,使得空间特征点的图像重投影误差最小,从而获得最优的空间特征点三维位置坐标Xw。

3 试验与结果分析

为了提高三维位置视觉标定结果的精度,选用高分辨率的Sony DSC-WX100数字相机,图像像素个数为2 592×1 944,试验时以定焦模式采集图像,相机的内参标定矩阵为

试验用棋盘模板上的棋盘方块物理尺寸为16 mm×16 mm,棋盘方块个数为5×5。试验时,在航空头盔上放置13个待标定位置的十字特征点,并将棋盘模板与头盔放置在一起,相机采集图像时头盔与棋盘模板保持刚性连接状态。

试验中共采集了24张图像,在基于棋盘模板的位姿参数解算结果下棋盘角点的重投影误差(Re-projection error,RPE)标准差曲线如图3所示,从图3中可以看出,第9幅和第17幅图像的重投影误差较大(这是因为本文采用的位姿解算方法只能获得局部最优解,无法保证全局最优),在进行空间特征点三维位置标定时需要剔除这2幅图像,而其他图像的重投影误差标准差最大值为1.99像素,由于图像像素个数较多,可以认为重投影误差标准差小于2像素的图像场景位姿解算结果精度较高。

为了对比显示特征点三维位置标定结果,采用棋盘角点图像坐标和场景位姿参数对棋盘角点进行三维位置标定,图4为每个棋盘角点在22幅图像上的重投影误差标准差曲线,其最大值为1.25像素。将解算的棋盘角点位置与真实位置进行对比,其中Z坐标绝对值小于0.31 mm,平面位置如图5所示,可以看出解算位置与真实位置基本重合。图6为解算位置与真实位置之间的距离误差曲线,其最大距离误差为O.59 mm,验证了本文方法可获得高精度的三维空间位置标定结果。

提取十字特征点图像坐标后,对十字特征点的三维位置标定结果如图7所示。图8为每个特征点在22张图像上的重投影误差标准差曲线,部分图像的十字特征点重投影结果如图9所示。可以看出,十字特征点的重投影位置与图像中十字特征点所在位置基本重合,最大RPE标准差为1.45像素。对比棋盘角点的三维标定结果,可认为十字特征点标定位置与真实位置之间的距离误差小于1 mm。

4 结束语

本文提出一种多视图场景确定下的空间点位置视觉标定方法。该方法通过在场景内放置棋盘模板确定图像场景位姿参数,而后根据多视图图像下的空间点图像坐标和场景位姿参数求解空间点三维位置坐标。试验时通过在航空头盔上布置不规则空间特征点对本文方法进行验证,结果表明,该方法下的空间点标记位置与真实位置间的距离误差小于l mm,适用于高精度要求下的不规则特征点位置标定。

参考文献:

[1] Fang Y, Dawson D M, Dixon W E, et al. Homography-based visual servoing of wheeled mobile robots [J]. IEEE Transactions on Systems, Man and Cybernetics, 2005, 35 (5): 1041-1050.

[2] Johnson E N, Calise A J, Watanabe Y, et al. Real-time vision-based relative aircraft navigation [J]. Journal of Aerospace Computing, Information, and Communication, 2007.4(4):707-738.

[3] 赵世峰,张海,范耀祖.一种基于计算机视觉的飞行器姿态估计算法[J].北京航空航天大学学报,2006,32(8):885-888.

Zhao Shifeng, Zhang Hai, Fan Yaozu. Attitude estimation method for flight vehicles based on computer vision[J].Journal of Beijing University of Aeronautics and Astronautics, 2006, 32(8):885-888.

[4] 郝颖明,吴清潇,周船,等,基于单目视觉的水下机器人悬停定位技术与实现[J].机器人,2006, 28(6):656-661.

Hao Yingming, Wu Qingxiao, Zhou Chuan, et al. Technique and implementation of underwater vehicle station keeping based on monocular vision[J]. Robot, 2006, 28(6):656-661. [5] 张子淼,王鹏,孙长库,单目视觉位姿测量方法及数字仿真[J].天津大学学报,2011,44(5):440-444.

Zhang Zimiao, Wang Peng, Sun Changku. Position and orientation measurement method with monocular vision and digital simulation [J]. Journal of Tianjin University, 2011, 44(5):440-444.

[6] 孙超,头盔瞄准具运动位姿预测方法研究[D].天津:天津大学,2012.

Sun Chao. Study on the prediction method of helment aiming movement pose[D]. Tanjin: Tianjin University,2012.

[7] 熊智,姚小松,郁丰.失效卫星空间近距离接近的位姿联合确定[J].南京航空航天大学学报,2013,45(5):583-589.

Xiong Zhi, Yao Xiaosong, Yu Feng. Position and attitude joint determination for failed satellite in space close-distance approach [J]. Journal of Nanjing University of Aeronautics & Astronautics, 2013,45(5):583-589.

[8] 郭力,昂海松,郑祥明,基于单目视觉的室内微型飞行器位姿估计与环境构建[J].南京航空航天大学学报,2012,44(2):165-171.

Guo Li, Ang Haisong, Zheng Xiangming. Monocular vision based motion estimation of indoor micro air vehicles and structure recovery [J]. Journal of Nanjing University of Aeronautics & Astronautics,2012, 44(2):165-171.

[9] Hartley R,Zisserman A, Ebrary I. Multiple view geometry in computer vision [M]. Cambridge: Cambridge University Press, 2003:151-361.

全文阅读已结束,如果需要下载本文请点击

下载此文档

相关推荐 更多