首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 281 毫秒
1.
具备尺度恢复的单目视觉里程计方法   总被引:1,自引:0,他引:1  
针对单目视觉存在尺度不确定性,无法准确估计移动机器人位姿的问题,提出一种具备尺度恢复的单目视觉里程计方法。通过建立局部地图解决基于参考帧/当前帧的位姿估计方式过分依赖参考帧的问题;为了提高位姿估计精度,在使用滑动窗口控制计算量的基础上建立位姿与地图3D点的图优化模型进行光束法平差;最后基于平面假设成立和相机高度已知的条件下,通过图像RoI区域的稠密匹配,建立非线性优化模型解得尺度因子,从而实现绝对尺度恢复。实验结果表明,该方法能稳定地进行位姿估计并且有效地解决了单目视觉存在的尺度不确定性问题,可用于真实三维场景中移动机器人的位姿估计。  相似文献   

2.
许智宾  李宏伟  张斌  肖志远  邓晨 《测绘学报》2021,50(11):1512-1521
为了提高移动机器人的定位精度,提出一种双目视觉与惯导融合的视觉SLAM算法.在视觉SLAM前端部分,为了保持直接法计算速度快及特征法精度高的特点,提出一种融合直接法和特征法的半直接法双目视觉里程计.在后端优化阶段,将视觉数据与IMU数据相互融合,在滑动窗口中以非线性优化的方式构建误差函数,优化位姿计算精度.在EuRoc数据集中对本文提出的算法进行试验验证.结果表明,与开源的视觉惯导融合的SLAM系统OKVIS、ROVIO和VINS-Mono相比,本文系统在Machine Hal l与Vi con Room两个场景中的定位精度均得到了明显的提升,同时可以保持较高的运行效率.  相似文献   

3.
本文提出一种基于图模型的视觉SLAM系统误差动态补偿方法,可以得到更加精确的位姿估计与三维重建结果。该方法首先利用改进生成树遍历得到包含完整场景的最小关键帧子集;然后通过四叉树均衡化算法进行三维地图点选取,并采用基于双窗口约束的平差策略限制计算量;最后按照自检校光束法平差原理构建误差方程进行求解。实验结果表明,该方法能够在保持计算效率的前提下,准确、稳健地补偿系统误差,提升位姿估计精度与重建模型的内符合一致性。  相似文献   

4.
危双丰  师现杰  刘振彬  肖斌 《测绘科学》2021,46(4):20-27,36
为了减弱视觉同时定位与地图构建(SLAM)易受光照、纹理等条件的影响,在非线性化单目SLAM研究基础上,该文提出了 一种加速度计bias估计优化初始化与点线特征结合的优化视觉里程计,使得在光线较弱的情况下也有较好的位姿估计效果,更优秀的初始化结果使得整个系统更加鲁棒、精度更高,且为了减少因为线特征的加入而增加的计算量,提出一种新的数据选择策略.通过和其他优秀算法(如PL-VIO、仅特征点方案)对比及真实场景实验的结果分析可知,该文提出的点线联合的优化视觉惯性里程计不仅能够减少定位误差,而且在光照条件较弱的环境中有较高的精度,既保证了系统的实时性,又提高了系统的鲁棒性.  相似文献   

5.
球形全景成像可以克服透视成像视场角的局限,实现场景全覆盖的三维重建和量测。本文在普通影像位姿估计的EPnP(efficient perspective-n-point)算法上进行了改进和扩展,提出了一种稳健快速的球形全景影像位姿估计算法。首先,构建球形全景影像的投影模型,将EPnP算法的平面透视成像模型扩展到球面成像模型;然后,采用基于全景球心、像点、控制点共线条件方程的改进EPnP算法求解控制点的球形全景像空间坐标;最后,利用Horn绝对定位算法直接解算全景影像位姿。与球形全景影像位姿估计的后方交会算法的对比试验结果表明,本文提出的方法无须迭代求解,更为稳健快速,即使控制点数目较少也能达到高精度,基于非严格共中心拼接的全景相机,重投影误差可控制在3.00像素左右。  相似文献   

6.
张一  姜挺  江刚武  余岸竹  于英 《测绘学报》2019,48(6):708-717
针对现有特征法视觉SLAM只能重建稀疏点云、非关键帧对地图点深度估计无贡献等问题,本文提出一种特征法视觉SLAM逆深度滤波的三维重建方法,可利用视频序列影像实时、增量式地构建相对稠密的场景结构.具体来说,设计了一种基于运动模型的关键帧追踪流程,能够提供精确的相对位姿关系;采用一种基于概率分布的逆深度滤波器,地图点通过多帧信息累积、更新得到,而不再由两帧三角化直接获取;提出一种基于特征法与直接法的后端混合优化框架,以及基于平差约束的地图点筛选策略,可以准确、高效解算相机位姿与场景结构.试验结果表明,与现有方法相比,本文方法具有更高的计算效率和位姿估计精度,而且能够重建出全局一致的较稠密点云地图.  相似文献   

7.
乌萌  郝金明  付浩  高扬  张辉 《测绘学报》2019,48(4):460-472
针对地面移动测量系统(MMS)和无人驾驶车(AV)平台双目立体相机采集的图像序列进行实时载体位姿估计优化问题,提出利用光流运动场模型的载体位姿与图像光流矢量间关系,将光流矢量解耦为3个平移分量、3个旋转分量和一个深度分量,推导分析了解耦后单分量、组合分量误差对位姿估计的影响,利用仿真和真实数据试验,验证了不同模型下单分量、组合分量误差分离模型的有效性,并结合组合分量误差分离模型,提出了双目视觉里程计位姿估计的解耦光流运动场位姿优化算法。试验结果表明:该算法可在与初始估计几乎同等计算效率条件下,将载体横向平移平均误差由4.75%降低至2.2%,即横向平移误差平均降低了53.6%;将载体前向平移平均误差由2.2%降低至1.9%,即前向平移误差平均降低了15.4%,长时间运行累积误差率较低,能够满足低功耗高效率计算条件下的组合导航实时载体位姿估计需求。  相似文献   

8.
为了提高视觉SLAM相机位姿估计的计算效率,提出一种直接位姿估计方法。该方法无需逐帧进行特征提取和影像匹配,直接根据像点辐射信息构建非线性优化问题求解相机位姿。推导了基于灰度变换系数的直接法位姿估计平差模型及相应的反向构成迭代解法,利用常速运动模型构建合理初值假设,设计相应的关键帧判断与创建准则,并基于ORB-SLAM系统框架进行实现,使其在保留间接法优点的同时,运算速度得以显著提升。实验结果表明:该方法估计每帧位姿仅需5.7 ms,可以在保证同等精度的情况下,达到ORB-SLAM系统2倍以上的整体计算效率,基本满足视频影像实时稳健三维重建的要求。  相似文献   

9.
针对滤波和优化融合算法在不同场景下定位性能不明确的问题,该文构建了一种融合先验点云地图、激光雷达(LiDAR)、惯性测量单元(IMU)的位姿估计框架。对比分析了基于图优化和误差状态卡尔曼滤波(ESKF)两种算法的位姿估计精度,并采用3组KITTI数据进行实验分析。结果表明:图优化算法的绝对位姿误差的均方根小于ESKF算法,3组数据的精度分别提升了28.9%、12.5%和21%;在复杂场景下,基于图优化算法的性能高于滤波算法;在简单场景下,滤波和图优化算法的精度接近,而滤波算法更加稳定。  相似文献   

10.
本文采用特征点检测实现移动机器人的单目视觉里程计,通过对图像进行网格划分保证特征点均匀分布,提高特征点匹配效率。并行计算基础矩阵及单应矩阵实现单目视觉里程计的自动初始化,采用RANSAC算法剔除外点提高特征点匹配质量。设定运动模型及参考帧模型加速帧间运动估计,并通过合理的关键帧选取策略及图优化提高相机位姿精度及鲁棒性。利用TUM数据集测试本文设计的单目视觉里程计,实验轨迹误差为3.58 m,通过Turtlebot2移动机器人对真实环境进行测试,实验表明本文方法的有效性。  相似文献   

11.
本文在现有单目视觉测量方法基础上,提出了一种相机真实俯仰角计算算法,结合图像快速相关匹配与定位算法,可完成桥梁挠度的快速精确测量。通过精度验证试验和挠度对比测试试验,得到了相应的结果,结果表明:①不考虑目标点真实俯仰角变化的测量方法在距离视场中心较远的位置测量结果中误差较大;②单目视觉方法测量结果与角钢作竖直向下的刚体位移保持一致;③单目视觉方法与GPS测量的挠度曲线变化趋势和测量数值基本一致。试验验证了本文方法的可行性及准确性,可为今后基于数字图像相关方法的土木工程变形测量技术研究提供参考。  相似文献   

12.
吴幼丝  杨丽颖 《测绘科学》2019,44(4):110-115
针对传统影像定向方法难以适用于球形全景影像定向的问题,该文提出了一种基于运动恢复结构(SfM)算法思想的球形全景影像快速定向方法。通过避开视野盲区消除了由视野盲区特征点匹配引起的误差,并附加对极几何约束进行鲁棒估计以提高匹配精度;采用改进的EPnP算法对新添加的影像进行位姿计算,提高了新增影像的位姿计算精度和计算效率;提出了全景前方交会算法和全景光束法平差模型,并通过多种优化策略,提高了三维场景构建的精度。基于长白县街景序列影像的实验结果表明,该文所提算法能够实现多摄站球形全景影像的快速定向,并具有较好的精度水平。  相似文献   

13.
针对复杂室内环境下视觉SLAM定位存在实时性差、轨迹漂移等问题,本文提出了一种基于图像特征提取方法的ORBSLAM算法。该算法在前端中提高图像特征检测与匹配的效率和精度,引入闭环检测策略优化相机位姿轨迹,提高定位精度。以不同来源图像对比分析不同特征提取算法SIFT、SURF、ORB的有效性,运用该算法估计机器人运动轨迹,与真实轨迹相对位姿误差为0.144 8 m,试验表明所提出的方法切实可行,具有较高的稳健性。  相似文献   

14.
张正鹏  张强 《测绘科学》2017,(12):122-126
针对车载全景序列影像的位姿估计问题,该文提出了一种基于角元素和线元素的位姿估计优化方法。根据全景多视几何关系,建立了角元素和线元素多视约束的优化模型,并推导完成模型的位姿求解方法。然后作为初始外方位元素,加入稀疏GPS/INS的相机控制数据约束,采用全景球模型的稀疏光束法平差对位姿估计结果进一步优化。实验选择IP-S2车载移动测量系统获取的全景序列影像,对比分析单视图、全景视图的连续位姿估计、本文方法和GPS/INS控制数据。实验结果表明,该文方法可提高位姿估计的精度,并减少连续位姿估计产生的累计误差。  相似文献   

15.
针对机器人利用单一位姿估计方法累积误差大、精度低的问题,本文提出了一种基于扩展卡尔曼滤波算法(EKF)和基于点线的最近点迭代扫描匹配算法(PL-ICP)的机器人位姿自适应估计方法。为了减少轮式里程计造成的累积误差,利用Mahony算法对陀螺仪和加速度计进行姿态解算,进而基于扩展卡尔曼滤波融合轮式里程计初步估计机器人位姿;为了减少轮子变形、打滑等对机器人位姿的影响,利用PL-ICP点云匹配算法构建单线激光里程计,对机器人位姿再次进行估计;为了提高位姿估计的准确度,提出了一种基于两种位姿总均方差和前后时刻位姿误差构建累积误差的自适应修正算法,通过分析两种位姿总均方差及前后时刻位姿误差,得到全局最优权重因子和局部动态权重因子,实现累积误差修正因子的自适应调整,得到机器人更精确的位姿估计。试验结果表明,该方法可对机器人的位姿累积误差进行修正,显著提高机器人的位姿估计精度。  相似文献   

16.
提出一种融合单目视觉SLAM与机载GPS信息的无人机视频目标定位方法。首先利用单目视觉SLAM实时估计相机相对位姿,融合机载GPS数据,得到WGS84坐标系下的相机位姿估计;其次利用融合后的相机位姿将已知GPS路标投影到像平面,实现GPS路标与无人机监控视频的叠加显示;最后通过关键帧间的极线搜索匹配确定目标像素点的匹配点,并将其反投影到三维空间得其对应的GPS坐标,实现无人机监控视频中的GPS位置查询。实验验证了该方法的有效性、精确性与实时性。  相似文献   

17.
针对单目直接法视觉里程计在光照变化大的场景下定位精度低、定位鲁棒性差的问题,文中提出一种融合光度参数估计的单目直接法视觉里程计。首先通过对图像帧进行特征匹配实现特征跟踪,建立起图像像素点之间的关联,接着利用非线性优化方法进行光度参数估计,然后在光度参数估计提供的光度参数先验信息的基础上对图像灰度值进行校正,最后利用校正后的图像采用单目直接法视觉里程计对相机运动进行估计。在EuRoC数据集上的实验结果表明,与传统方法相比,文中提出的算法提高单目直接法视觉里程计对光照变化的鲁棒性,定位精度平均提高约18%。  相似文献   

18.
针对纯视觉SLAM在光照变化明显、环境纹理较少及载体快速运动的室内场景中容易出现特征跟踪失败、定位精度下降等问题,本文提出了一种基于滑动窗口进行后端优化的视觉惯导紧耦合方法,融合了IMU信息以提高跟踪精度与系统的鲁棒性。该方法利用IMU预积分误差与单目视觉SLAM的重投影误差构建新的损失函数来进行状态估计,采用基于滑动窗口的非线性优化方法进行运动估计,实时恢复组合系统位姿。在实测数据集上的实验结果表明,本文方法在x轴方向上的均方根误差为0.124 m,y轴方向上的均方根误差为0.113 m,实现了厘米级精度的定位。  相似文献   

19.
高精度定位与导航服务在移动机器人、无人机与自动驾驶等新兴领域中发挥着至关重要的作用。视觉/惯性/激光雷达组合算法相较于视觉/惯性组合算法,可同时利用环境的空间结构与纹理信息以实现更为鲁棒的位姿估计结果,然而其在大尺度场景下仍存在误差累计问题。为此提出了一种全球导航卫星系统(global navigation satellite system,GNSS)精密单点定位(precise point positioning,PPP)/视觉/惯性/激光雷达紧组合算法。该算法首先通过4种传感器的联合初始化,实现了不同传感器空间基准的统一;然后,用双频无电离层组合后的GNSS伪距、相位观测值与视觉、惯性、激光雷达原始观测值共同构成误差因子;最后,通过基于关键帧与滑动窗口的因子图优化实现了全局位姿的精确、鲁棒估计。经车载实验验证,所提出的GNSS PPP/视觉/惯性/激光雷达紧组合算法通过4种传感器在原始观测值层面的组合,可以显著提升系统在复杂环境下的位姿估计的精度、连续性与可靠性,实现无缝导航。  相似文献   

20.
非合作目标的位姿监测,是空间目标态势感知的重要内容之一。本文提出了一种基于立体观测的非合作目标位姿变化监测方法,采用单目观测序列提取Harris角点,运用金字塔稀疏光流法对其进行运动跟踪,利用影像匹配和前方交会获取运动点三维坐标,最后将运动点坐标带入运动方程解算目标位姿变化。半实物仿真试验结果表明:相机距目标距离约为2.5 m时,位置变化检测精度优于2.5 mm,姿态变化检测精度优于0.5°。相比于基于先验信息和特征提取的传统方法,该方法基本满足对非合作目标监测、跟踪、绕飞时位姿测量需求,且在适应性和精度上均有提高。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号