简介:提出一种单目视觉里程计/捷联惯性组合导航定位算法。与视觉里程计估计相机姿态不同,惯导系统连续提供相机拍摄时刻对应的三维姿态,克服了单纯由视觉估计相机姿态精度低造成的长距离导航误差大的问题。通过配准和时间同步,用惯导系统解算的速度和视觉里程计计算的速度之差作为组合导航的观测量,采用Kalman滤波修正组合导航系统的误差,同时估计视觉里程计标度因数误差。分别在室内外不同环境下进行了22m的推车实验和1412m的跑车实验,定位误差分别为3.2%和4.0%。与Clark采用姿态传感器定期更新相机姿态估计结果的方法相比,单目视觉里程计/惯性组合导航定位精度更高,定位误差随距离增长率低,适合步行机器人或轮式移动机器人在复杂地形环境下车轮严重打滑时的自主定位导航。
简介:为适应自主驾驶车辆的高精度、高频率与高可靠性的导航要求,提出了一种机器视觉/数字地图/CP-DGPS共同辅助SINS的智能车辆组合导航方法,建立了组合导航系统的滤波模型。该滤波模型的量测信息不仅包括GPS与SINS形成的位置与姿态观测信息,还包括机器视觉/数字地图/SINS形成的横向偏差观测信息。通过对SINS的多重冗余辅助,使得导航系统具备容错能力。仿真结果表明,该组合导航系统能为智能车辆提供其空间位置、速度、加速度与姿态角等众多导航信息,并具有100Hz的高频输出、厘米级的导航精度和容错性能,当GPS较长时间中断时,通过SINS/视觉/数字地图的组合仍能为智能车辆提供可靠的导航数据。
简介:大视角图像匹配算法的鲁棒性与实时性直接影响飞行器对远距离目标定位的性能。针对目前仿射不变图像匹配算法实时性较差的问题,提出一种惯性信息辅助的快速大视角图像匹配方法。该方法对现有的快速图像匹配算法进行改进,避免了构建高斯金字塔,提高了算法效率。然后利用机载惯性导航信息求解实时图与参考图之间的单应性矩阵,并对实时图进行模拟视角变换以此减小图像间视角差异,克服了现有的大视角图像匹配算法盲目多次的匹配计算,实现了大视角图像的快速匹配。实验结果表明,惯性信息辅助的大视角图像匹配算法与现有的快速仿射不变性匹配算法相比,匹配效率提高了至少2倍。
简介:针对单一图像源下目标跟踪精度不高的问题,利用跟踪状态下的目标存在于可见光与红外图像中的特征对连续自适应均值移动跟踪算法做出改进。首先选取可见光图像的“颜色梯度背投影”作为改进的目标模型,选取红外图像的“灰度梯度背投影”作为改进的目标模型;然后根据可见光序列图像和红外序列图像各自进行连续自适应均值移动跟踪算法得到的对应的口‘系数判定两种图像跟踪的效果,对两种图像的权重进行自适应调整,得到这两种图像的特征级融合图像和跟踪结果。实验结果表明,对于320像素×240像素的可见光和红外图像,基于可见光与红外图像特征融合的目标跟踪算法在复杂背景下能够较准确的跟踪目标,目标跟踪精度为0.5像素,跟踪速度为30~32ms/帧。
简介:针对1点RANSAC(RandomSampleConsensus)单目视觉EKF(ExtendedKalmanFilter)算法中的滤波发散问题,分析了滤波发散的产生原因,提出了一种基于渐消记忆滤波的1点RANSAC单目视觉姿态估计算法。该算法通过在EKF滤波方程中引入加权因子,逐渐加大当前数据的权重,相应地减少旧数据的权重,有效地扼制了算法中的滤波发散问题。最后通过两组验证性实验验证说明了算法的有效性。实验结果表明:该算法能够有效地解决1点RANSAC单目视觉EKF算法中的滤波发散问题,具有更高的精度。第一组双轴联动实验,航向角的平均误差减小2.4158?,俯仰角平均误差减小0.1782?;第二组偏航轴大角度转动实验,摄像机航向角的估计误差一直保持在1.5?以内。