首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 140 毫秒
1.
本文采用特征点检测实现移动机器人的单目视觉里程计,通过对图像进行网格划分保证特征点均匀分布,提高特征点匹配效率。并行计算基础矩阵及单应矩阵实现单目视觉里程计的自动初始化,采用RANSAC算法剔除外点提高特征点匹配质量。设定运动模型及参考帧模型加速帧间运动估计,并通过合理的关键帧选取策略及图优化提高相机位姿精度及鲁棒性。利用TUM数据集测试本文设计的单目视觉里程计,实验轨迹误差为3.58 m,通过Turtlebot2移动机器人对真实环境进行测试,实验表明本文方法的有效性。  相似文献   

2.
徐爱功  宋帅  隋心  乔智  高嵩 《测绘科学》2019,44(12):1-6
针对单目视觉/INS的组合定位算法中,单目视觉本身不具备尺度的问题以及在景深变化明显和光照不均匀的环境下会产生粗差的问题,提出了一种单目视觉/INS组合室内定位抗差方法。在尺度恢复方面,借助INS的位置增量信息,基于最小二乘法对单目视觉进行尺度恢复。在抗差方法方面,利用INS在短时间间隔内增量信息高精度的特性,对单目视觉在此时间间隔内的增量信息进行检测,判断是否产生粗差并进行粗差剔除,进而提高组合定位系统的定位精度。实验结果表明,所提算法可以有效的探测并剔除单目视觉/INS组合系统在恶劣环境下产生的粗差,提高组合定位系统的精度及鲁棒性。  相似文献   

3.
惯性测量单元(IMU)受自身温度、零偏、振动等因素干扰,积分时位姿容易发散,并且机器人快速移动时,单目视觉定位精度较差,为此研究了一种基于紧耦合的视觉惯性即时定位与地图构建(SLAM)方法. 首先研究了视觉里程计(VO)定位问题,为减少特征点的误匹配,采用基于快速特征点提取和描述的算法(ORB)特征点的提取方法. 然后构建IMU的数学模型,使用中值法得到运动模型的离散积分. 最后将单目视觉姿态与IMU轨迹对齐,采用基于滑动窗口的非线性优化得到机器人运动的最优状态估计. 通过构建仿真场景以及与单目ORB-SLAM算法对比两个实验进行验证,结果表明,该方法优于单独使用VO,定位精度控制在0.4 m左右,相比于传统跟踪模型提高30%.   相似文献   

4.
针对目前视觉同步定位与建图(V-SLAM)动态场景适应性差的问题,提出了一种结合查找表和金字塔LK光流法的改进单目视觉同步定位与建图方法。该方法通过相邻帧的视差估计图像的移动方向,利用金字塔LK光流法获取光流信息,根据光流大小与阈值的比较检测移动物体,最终结合查找表减少移动物体对后续定位与建图的影响。实验证明该方法可以有效提高定位精度,减少图像的冗余信息和动态目标的影响。能满足视觉SLAM在室内场景下的实时需求,具有较高的准确性、鲁棒性和适应性。  相似文献   

5.
许智宾  李宏伟  张斌  肖志远  邓晨 《测绘学报》2021,50(11):1512-1521
为了提高移动机器人的定位精度,提出一种双目视觉与惯导融合的视觉SLAM算法.在视觉SLAM前端部分,为了保持直接法计算速度快及特征法精度高的特点,提出一种融合直接法和特征法的半直接法双目视觉里程计.在后端优化阶段,将视觉数据与IMU数据相互融合,在滑动窗口中以非线性优化的方式构建误差函数,优化位姿计算精度.在EuRoc数据集中对本文提出的算法进行试验验证.结果表明,与开源的视觉惯导融合的SLAM系统OKVIS、ROVIO和VINS-Mono相比,本文系统在Machine Hal l与Vi con Room两个场景中的定位精度均得到了明显的提升,同时可以保持较高的运行效率.  相似文献   

6.
针对眩光/阴影等复杂光照干扰场景视觉定位鲁棒性较低的问题,该文提出一种顾及图像亮度特征的自适应视觉同时定位与地图构建(SLAM)定位方法。该方法基于ORB-SLAM2算法进行改进,通过在ORB-SLAM2前端利用图像平均亮度阈值法检测光照干扰图像,并对其进行饱和度增强,从而得到有利于ORB特征提取的图像。该文利用TUM数据集与KITTI数据集验证了所提方法的可靠性,并与原ORB-SLAM2和ORB-SLAM3算法进行了对比实验。实验结果表明,该文方法的定位精度优于其他两种算法,有效提升了复杂光照场景中视觉定位的鲁棒性。  相似文献   

7.
针对利用单目相机采集的图像序列进行实时车载平台位姿估计问题,对比了不同单目半直接典型算法的原理和试验结果以及不同场景、运动状态、光照和耦合因素下的同名点跟踪算法、长时间场景稳健的高精度位姿估计方法、位姿优化方法的试验结果。通过与两个典型半直接MVO算法进行了计算过程多个阶段和计算结果多个方面的对比,得出每个阶段和整体结果更好的计算方法;最终总结提出了一种场景稳健的单目半直接视觉里程计算法并利用序列真实数据进行了试验验证。试验结果表明,该算法的长时间位姿估计的场景稳健性和计算精度均显著优于目前典型的半直接MVO算法,位姿估计精度比ERL算法提升10%以上,计算效率与典型的ERL算法相当,能够满足各类单目视觉里程计应用场景需求。  相似文献   

8.
在恢复场景信息和相机运动时,传统的SLAM算法是基于静态环境假设的。场景中的动态物体会降低算法的稳健性和最终的定位精度。本文提出将基于深度学习的图像语义分割技术与传统的视觉SLAM算法结合,以减少动态物体对定位结果的干扰。首先,构建有监督的卷积神经网络对输入图像中的动态物体进行分割,获得语义图像;然后,从原始图像中提取特征点,并根据语义图像剔除动态物体特征点,保留静态物体特征点;最后,利用静态物体特征点采用基于特征点的单目视觉SLAM算法对相机运动进行跟踪。在ApolloScape自动驾驶数据集上的试验表明,与传统方法相比,本文算法在动态场景中定位精度提升约17%。  相似文献   

9.
基于RGB-D传感器能直接获取空间环境的深度信息和图像信息的能力,采用最新的RGB-D传感器(Realsense),实现了室内移动机器人的视觉里程计。首先利用张正友相机标定法对Realsense传感器的彩色摄像头进行标定;接着采用ORB算法实现图像特征点的匹配,并用PROSAC算法进行外点剔除;最后采用PnP算法实现相机姿态的估计,利用g2o库对相机的姿态进行光束法平差优化,并绘出相机的运动轨迹,实现了基于RGB-D传感器的机器人视觉里程计。实验结果显示该方法能快速、准确地估计视觉传感器的位姿信息,实现移动机器人的精准定位和导航。  相似文献   

10.
具备尺度恢复的单目视觉里程计方法   总被引:1,自引:0,他引:1  
针对单目视觉存在尺度不确定性,无法准确估计移动机器人位姿的问题,提出一种具备尺度恢复的单目视觉里程计方法。通过建立局部地图解决基于参考帧/当前帧的位姿估计方式过分依赖参考帧的问题;为了提高位姿估计精度,在使用滑动窗口控制计算量的基础上建立位姿与地图3D点的图优化模型进行光束法平差;最后基于平面假设成立和相机高度已知的条件下,通过图像RoI区域的稠密匹配,建立非线性优化模型解得尺度因子,从而实现绝对尺度恢复。实验结果表明,该方法能稳定地进行位姿估计并且有效地解决了单目视觉存在的尺度不确定性问题,可用于真实三维场景中移动机器人的位姿估计。  相似文献   

11.
针对单目视觉惯性定位系统在复杂环境和相机高动态条件下的实时性和高精度的需求,提出了一种基于加权预积分和快速初始化的惯性辅助单目前端模型Improved_VIO。首先同步视觉和惯性测量数据,建立高精度的IMU加权预积分模型,为联合初始化和视觉跟踪模型提供帧间运动约束;然后构建视觉惯性融合状态向量,建立联合初始化模型,实现视觉惯性松耦合的快速联合初始化;最后在IMU加权预积分和快速初始化方法的基础上,建立一套惯性辅助的视觉跟踪模型,从而有效提高系统定位精度。在EuRoC数据集上的试验结果表明,与传统视觉惯性定位前端模型相比,本文的前端模型提升了单目视觉惯性定位的精度与实时性,初始化时间缩短至10 s内,定位精度提高了约30%。  相似文献   

12.
针对复杂室内环境下视觉SLAM定位存在实时性差、轨迹漂移等问题,本文提出了一种基于图像特征提取方法的ORB-SLAM算法。该算法在前端中提高图像特征检测与匹配的效率和精度,引入闭环检测策略优化相机位姿轨迹,提高定位精度。以不同来源图像对比分析不同特征提取算法SIFT、SURF、ORB的有效性,运用该算法估计机器人运动轨迹,与真实轨迹相对位姿误差为0.144 8 m,试验表明所提出的方法切实可行,具有较高的稳健性。  相似文献   

13.
视觉里程计是机器人确定自身在周围环境中位置的关键技术,具有测量漂移小、精确的特点,适合较长时间的自主定位。提出一种使用双目相机的直接法视觉里程计,使用双目影像对与时序影像对之间的光度误差联合优化关键帧的位置与姿态、相机内参数、地图点坐标,并在车载道路基准数据集KITTI上进行测试,获得了良好的效果。  相似文献   

14.
利用视觉词袋模型和颜色直方图进行遥感影像检索   总被引:1,自引:0,他引:1  
基于内容的遥感影像检索已经成为遥感领域的研究热点,因此,本文提出了一种综合视觉词袋模型和颜色直方图的遥感影像检索方法,利用尺度不变特征算子提取影像的局部不变特征,通过视觉词袋模型组合局部特征,生成每幅影像的金字塔直方图,接着结合每幅影像的颜色直方图生成更有区分性的特征向量,利用新的特征向量集训练支持向量机分类器,通过分类器输出与查询属于一类的影像,完成遥感影像检索。试验结果表明,本文方法不仅提高了影像检索的查准率和查全率,并且验证了该方法能有效克服影像光照、噪声、方向等变化,鲁棒性较好。  相似文献   

15.
用于行星探测车的视觉测程方法已经被广泛研究,但传统的视觉测程方法仅根据相邻的两帧影像进行运动估计,忽略了连续多帧影像间更强的几何约束。本文提出一种新的视觉测程方法,在连续多帧影像间进行特征追踪构成影像网,并用光束法平差进行运动估计。在特征追踪过程中,根据不同立体影像中欧氏距离的一致性剔除离群值,并自适应地选择几何关键帧。用蒙特卡罗方法分析了不同几何配置下视觉测程的精度。野外实验结果表明本文提出的新方法能有效提高探测车定位精度。  相似文献   

16.
在无GPS信号的受限环境中,基于序列立体影像的运动平台视觉定位精度较高,能够改正航迹推算方法的误差累积,但在纹理贫乏或光照不足的环境下容易定位失败。为提高受限环境下运动平台定位的精度与稳健性,提出一种基于联邦滤波的立体相机、惯性测量单元(inertial measurement unit,IMU)及里程计组合导航方法。该方法在联邦滤波中利用IMU分别同里程计与立体相机构成子滤波器,有效避免立体视觉定位失效而导致的系统定位失败,提高了定位稳健性。地下巷道实验结果证明,所提方法能有效提高运动平台导航定位的精度,并且在立体视觉定位失效的情况下仍能实现连续定位。  相似文献   

17.
基于单一传感器的同时定位与地图构建技术已经逐渐不能满足移动机器人、无人机及自动驾驶车辆等智能移动载体日益复杂的应用场景。为了进一步提升移动载体在复杂环境下的定位与建图性能,基于多传感器融合的SLAM技术成为目前研究的热点内容。本文提出了一种基于图优化的紧耦合双目视觉/惯性/激光雷达SLAM方法(S-VIL SLAM),该方法在视觉惯性系统中引入激光雷达原始观测,基于滑动窗口实现了IMU量测、视觉特征及激光点云特征的多源数据联合非线性优化。利用视觉与激光雷达的互补特性设计了视觉增强的激光雷达闭环优化算法,进一步提升了多源融合SLAM系统的全局定位与建图精度。为了验证本文算法的性能,利用自主搭建的集成多传感器的硬件采集平台在室外场景下进行了车载试验。试验结果表明,本文提出的紧耦合双目视觉/惯性/激光雷达里程计相比于紧耦合双目视觉惯性里程计和激光雷达里程计定位定姿性能显著提升,视觉增强的激光雷达闭环优化算法能够在大尺度场景下有效探测出轨迹中的闭环信息,并实现高精度的全局位姿图优化,经过闭环优化的点云地图具有良好的分辨率和全局一致性。  相似文献   

18.
近年来,视觉定位由于定位精度高广泛应用于室内定位与导航。然而,室内环境复杂多变,视觉定位在很多场景下无法实现高精度定位,而且多数视觉定位算法耗时和计算复杂度高,不适用于智能手机。为实现基于智能手机的准确高效定位,本文提出了一种基于图像灰度直方图相似度计算的定位方法。该方法分为两个阶段:离线阶段和在线阶段。离线阶段在已知坐标的格网点分别利用智能手机采集图像,提取图像灰度直方图,建立图像灰度直方图图像特征库;在线阶段智能手机在待测点采集图像提取灰度直方图,然后与图像特征库进行相似度计算,选取相似度和最大值的格网作为概略位置,以相似度为权重采用加权均值法得到准确位置。将所提方法和KNN算法进行对比,试验结果表明,该方法的平均定位误差优于0.3 m,与KNN算法相比定位精度提高了40.7%,计算时间优于1.7 s。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号