首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 140 毫秒
1.
针对现有立体影像直线匹配方法中的线描述子只依赖局部灰度特征导致可靠性较弱的问题,本文提出了一种结合网状描述符和单应约束的直线匹配方法。① 利用线特征检测算法(Line Segment Detector, LSD)提取参考影像及搜索影像中的直线段;② 根据角度约束和核线约束确定候选直线,缩小直线搜索范围,并计算参考直线与候选直线的重叠部分以确保端点一致;③ 利用直线段固定邻域内的同名点对构建网状描述符,选择3组不同的同名点对分别计算直线相似值,取其中最大值作为直线段的最终相似度从而确定同名直线对;④ 将未搜索到同名点对的直线段利用单应性矩阵映射至搜索影像,并根据3个判别准则得到最终的匹配结果。为了验证算法的有效性及鲁棒性,本文选取国际公开的标准测试数据集中5组近景影像进行实验,并与现有3种具有代表性的算法进行对比。结果显示本文算法的准确度及有效性均优于对比的3种算法,在匹配准确率与运行效率上最高有16.1%与49倍的提升,对于不同条件下的影像均能取得良好的直线匹配结果。  相似文献   

2.
特征匹配是面阵摆扫式航空影像处理的关键步骤,针对传统特征匹配方法在面阵摆扫式航空影像匹配时存在匹配点数量少,分布不匀均的问题,本文提出一种基于自适应亮度空间的特征匹配方法。首先根据影像POS(Postion Oriental System)信息求解待匹配影像间变换关系进行影像校正,在校正后的影像上构建自适应亮度空间,使用ORB算子和BEBLID算法在亮度空间上获取特征点和二进制特征描述符,然后基于汉明距离获取初始匹配点,使用RANSAC算法剔除粗差,最后将匹配点变换到原始影像上得到最终匹配结果。本文选取6组具有视角差异及亮度变化的面阵摆扫式航空影像进行实验,将本文算法与SIFT、SURF、ORB、ORB+BEBLID、ASIFT等匹配方法进行比较,结果表明:本文算法通过建立影像间变换关系,构建自适应亮度空间,使得算法提取的特征点数量增加1.5倍,获取匹配点数量是其他算法的3倍以上,且匹配点分布更加均匀,匹配效率高于其他算法,验证了本文算法在具有亮度变化及视角差异的面阵摆扫式航空影像上匹配的有效性。  相似文献   

3.
多模态影像在辐射特征和几何特征方面存在的显著差异,会造成高精度匹配困难。因此,本文提出了一种融合多尺度深度学习特征的多模态影像匹配方法,主要利用深度残差神经网络结构自主训练学习影像的学习型特征,得到多模态图像之间更为丰富和更为准确的同名特征点对,实现了对多尺度、多时相影像的协同稳健匹配。结果表明,本文方法对于多组实验均能够得到数量丰富且分布相对均匀的同名特征点对,并具有高效、稳健的匹配性能。  相似文献   

4.
特征匹配是无人机影像拼接过程的关键步骤,针对传统的特征匹配方法在影像拼接过程中获取匹配点少、特征点分布不均匀、匹配耗时长等问题,本文提出一种基于Dense SIFT特征的无人机影像快速拼接算法。首先,利用影像POS信息构建连接矩阵以引导匹配过程;然后在降采样影像上进行影像分块,利用Dense SIFT算子获取初始匹配点,并采用两次NCC方法分别实现降采样影像和原始影像上匹配点的精化;最后,基于共线方程将影像投影至物方面上,完成影像的快速拼接。本文选取2组无人机影像进行拼接实验,将本文算法与SIFT和SURF匹配拼接方法进行对比,结果表明:在影像特征点匹配方面,本文方法获取匹配点数量是SIFT和SURF算法的5倍以上,且匹配点分布更加均匀;在影像拼接结果方面,本文方法不仅能够较快完成影像拼接,而且有效避免了拼接影像中的“重影”现象,保证了较好的拼接质量。  相似文献   

5.
面对迅速增长的资源三号测绘卫星的遥感影像,如何将其快速处理为影像底图,是实现资源三号测绘卫星影像快速信息服务的关键技术之一。本文针对使用传统影像处理方式进行资源三号测绘卫星底图生产时所面临的不足,采用ESRI公司最新的影像技术(包括区域网平差、镶嵌数据集、实时处理和影像服务等特性),设计了一种基于ArcGIS的资源三号测绘卫星影像底图快速处理方案。通过实验数据的分析,本文提出的方案解决了传统影像处理中存在的问题,其处理时间只需传统方式的1/7,存储空间占用是传统方式的1/26,适用于大规模资源三号测绘卫星影像的底图生产,为资源三号测绘卫星数据快速处理、共享服务和应用提供支撑。  相似文献   

6.
基于形态特征的目标匹配是地图空间认知、地表位置自动感知等领域的重要方法。然而,由于不同数据源的遥感影像提取的同一个空间目标在空间尺度和局部形态上存在一定的差异,现有形态匹配算法难以获得较高的匹配精度。本文以等角边界距离编码及相似性算法为核心,提出了面向遥感影像的面状图斑匹配方法。① 从面目标的质心以10°为间隔,顺时针方向从质心向外引36条射线,获取面目标的边缘点,形成等角边界距离编码;② 提出了与该编码相适应的几个综合形态指标,包括自相似度、圆形度、形态复杂度和质心偏移度,并建立了面状图斑相似度算法;在此基础上,结合近邻目标的形态相似度,构建了遥感影像面状图斑匹配算法;③ 从不同数据源的在线遥感影像上提取中国西部湖泊与全球湖泊,开展面状图斑匹配实验。通过实验,发现本文的面状图斑相似度算法相对于按距离采样的相似度算法,召回率提升了13.8%;在添加近邻目标相似度约束的基础上,面状图斑匹配精度达到90%以上。通过算法适应性分析,发现该算法在一定的投影变形下仍能保持一定的匹配精度;如果空间目标及其邻域目标的总体形态和分布接近,不同空间尺度的匹配精度保持在80%以上。本文的研究为地图空间认知、地表位置机器自动感知提供了新的思路和方法。  相似文献   

7.
随着地球观测进入大数据时代,传统的数据管理技术已经难以适应大数据需求, Open Data Cube (ODC)作为新型的开源的地球观测数据管理与分析平台,适合进行时间序列数据的高性能计算和探索性数据分析,是亚大区域综合地球观测系统AOGEOSS的重要技术支撑平台。但当前ODC对国产卫星影像支持不友好,缺乏自动化管理和数据组织工具,使用ODC进行国产卫星影像数据管理的技术不成熟。因此,本文以高分一号卫星影像为例,通过开发ODC_GFTool中间件和自定义高分卫星影像产品格式探索ODC框架下国产影像数据自动化管理流程,最后以鄱阳湖为试验区,进行了基于ODC框架的水体提取应用实验,论证了ODC框架下国产卫星数据存取的可行性,研究结果表明相较于传统的数据处理工具ODC具有明显的效率优势,能够为AOGEOSS基础设施建设和国产卫星影像数据管理提供一定的参考。  相似文献   

8.
目前遥感影像跨视角匹配技术无法直接使用大幅卫星影像进行匹配,难以满足大范围复杂场景匹配的任务需求,且依赖大规模数据集,不具备良好的泛化能力。针对上述问题,本文在质量感知模板匹配方法的基础上结合多尺度特征融合算法,提出一种基于视角转换的跨视角遥感影像匹配方法。该方法首先利用手持摄影设备采集地面多视影像,经密集匹配生成点云数据,利用主成分分析法拟合最佳地平面并进行投影变换,以实现地面侧视视角到空视视角的转换;然后设计了特征融合模块对VGG19网络从遥感影像中提取的低、中、高尺度特征进行融合,以获取遥感影像丰富的空间信息和语义信息;最后利用质量感知模板匹配方法将从视角转换后的地面影像上提取的特征与遥感影像的融合特征进行匹配,获取匹配的软排名结果,并采用非极大值抑制算法从中筛选出高质量的匹配结果。实验结果表明,在不需要大规模数据集的情况下本文方法具有较高的准确性和较强的泛化能力,平均匹配成功率为64.6%,平均中心点偏移量为5.9像素,匹配结果准确完整,可为大场景跨视角影像匹配任务提供一种新的解决方案。  相似文献   

9.
针对现有由稀到密的加密匹配算法中,初始匹配点可靠性低将导致迭代匹配拓展过程存在较多误匹配的问题,提出一种基于可靠匹配点约束的遥感影像密集匹配算法。首先,利用SIFT匹配点约束直线匹配获得的同名直线构建虚拟匹配点集,结合虚拟匹配点集和SIFT匹配点集建立初始匹配点集;然后,依次采用局部影像信息和局部几何约束对初始匹配点集进行检核剔除错误匹配,主要体现在利用指纹信息和梯度信息构建匹配点局部区域约束剔除较为明显的误匹配点,利用匹配三角网构建局部几何约束剔除由相似纹理产生的误匹配点,得到优化后的可靠匹配点;最后,基于可靠匹配点构建的Delaunay三角网,以三角形重心为加密匹配基元,结合核线约束和仿射变换对其进行迭代匹配拓展,得到最终匹配点集。选取4组资源三号卫星前视数据和后视数据进行实验,结果表明:利用局部纹理特征和局部几何双重约束模型可有效剔除误匹配点得到可靠匹配点,通过可靠匹配点进行迭代匹配拓展得到的密集匹配结果相较于对比算法具有更高匹配精度,在4组数据上其平均匹配精度为95%,具有较好的匹配稳定性。  相似文献   

10.
针对多源遥感影像之间成像机理不同、非线性光谱辐射畸变大以及灰度梯度差异明显等所导致的匹配困难问题,提出深度特征融合匹配算法(Feature Fusion Matching Algorithm, FFM)。(1)通过构建特征图金字塔网络提取影像深度特征,使用特征连接结构将语义丰富的高层特征与定位精确的低层特征互补融合,解决多源影像同名特征难以表征的问题并提高特征向量的定位精度;(2)对原始维度1/8的特征图进行交叉变换来融合自身邻域信息与待匹配影像特征信息,通过计算特征向量间的相似性得分得到初次匹配结果,针对特征稀疏区域,提出滑动窗口自适应得分阈值检测算法来提升匹配效果;(3)将匹配结果映射至亚像素级特征图,在小窗口内计算像素间的匹配概率分布期望值来检校优化匹配结果,提高匹配点对的准确性;(4)使用PROSAC算法对匹配结果进行提纯,有效剔除误匹配的同时最大限度保留正确匹配点。试验选取6对多源遥感影像,将FFM同SuperPoint、SIFT、ContextDesc以及LoFTR算法进行对比,结果表明FFM算法在匹配点正确率、匹配点均方根误差以及分布均匀度等方面远优于其他算法。将FFM匹...  相似文献   

11.
由于光学遥感图像和SAR图像具有明显的非线性强度差异,且SAR图像存在斑点噪声,使得其配准存在较大难度。为此,本文结合基于特征和基于区域图像配准方法的优点,并组合为混合模型,提出一种由粗到精的自动配准算法。以光学遥感图像和SAR图像分别为参考图像和待配准图像,先以基于特征点的SAR-SIFT完成粗配准,再以基于区域的ROEWA-HOG完成精配准。① 采用SAR-SIFT算法进行特征点检测和特征匹配来计算图像的仿射变换模型,以消除参考图像和待配准图像之间明显的旋转、尺度和平移差异,至此完成图像粗配准;② 在此基础上利用分块Harris角点检测在参考图像上获得特征点,并根据特征点确定待配准图像上的同名点搜索区域;③ 计算图像的ROEWA梯度,构造以特征点为中心的模板区域内的HOG特征向量,以SSD作为相似性测度搜索待配准图像上的同名点,完成高精度的图像配准;④ 进行图像配准实验,对配准结果进行目视检查和精度评估。经过多组光学与SAR图像配准实验,验证本文算法能够结合基于特征和基于区域的图像配准方法的优点,较好地抵抗光学与SAR图像之间的非线性强度、旋转、尺度、平移差异和SAR图像的噪声影响,并逐步提高配准精度,最终配准精度达到1个像素左右,实现了光学与SAR图像的高精度自动配准,能够满足光学与SAR图像后续综合应用。  相似文献   

12.
当影像中存在多个相同或相近的直线特征时,仅利用单直线特征间的相似性进行匹配容易导致算法失效,因此本文提出基于直线间几何属性特征相似性约束的组直线匹配算法。该算法利用直线间的拓扑关系分别对2幅影像上提取的直线进行编组得到特征直线组,并将其作为匹配基元;然后利用核线约束确定候选同名直线组的搜索范围,精简了候选直线组的数量;依据直线间几何属性特征向量的仿射不变性建立直线组的匹配关系,将仿射不变量交比作为基础几何不变性测度,并延伸设计仿射相似度参数,计算出目标直线组与每个候选直线组的仿射相似度或一般相似度,确定2种相似度下总体相似度值最大的特征直线组为其同名直线组,最后将同名直线组分裂为2对同名单直线,对分裂后的结果进行整合可以显著降低冗余匹配,得到“一对一”的匹配单直线。为了验证算法的可靠性,实验选取网上公开的5组典型近景影像进行测试,通过与其他匹配算法的对比分析,结果表明该算法应对影像间存在的视角、旋转和尺度变换等复杂条件均取得了较高的匹配精度,匹配正确率最高有14.5%的提升,且阈值的选择对匹配结果影响微弱,验证了基于直线间几何属性特征相似性约束的组直线算法鲁棒性和匹配稳定性较强。  相似文献   

13.
针对传统方法和深度学习匹配方法在倾斜影像上获取匹配点少、复现率低以及精度不高等问题,本文提出一种面向倾斜摄影的深度学习航空影像匹配方法。首先,利用POS信息计算影像重叠区域,并对倾斜影像进行透视变换改正,减弱几何变形对匹配过程的影响;其次,在变换后的重叠区域影像上利用训练的多尺度特征点检测网络推理其对应的高斯热力图,在高斯热力图尺度空间检测极值点作为稳定特征点,基于自监督主方向检测网络获取特征点主方向;接着,在特征点描述阶段,结合网络学习得到的特征点位置和主方向获取尺度旋转不变GeoDesc基础描述子,并考虑图像的几何、视觉上下文信息对描述子进行增强处理;最后,通过双向比值提纯法获取初始匹配点,利用RANSAC和图约束方法剔除误匹配后获得最终匹配点结果。使用ISPRS提供的2组典型区域倾斜影像进行匹配实验,结果表明,相比于SIFT、ASIFT、SuperPoint、GeoDesc及ContextDesc等算法,本文方法能够在大视角变化和纹理信息贫乏的倾斜影像对上获取更多均匀分布的匹配点,同时复现率也要优于其他方法。  相似文献   

14.
一种基于图像特征点信息的误匹配点剔除改进算法   总被引:1,自引:0,他引:1  
误匹配点剔除是基于特征点图像匹配过程的重要一步,关系到图像匹配的精确度。在特征点匹配求精方面,改进基于特征点信息的误匹配点剔除算法,通过自适应特征点邻域半径得到的邻域特征点数量及位置信息进行逐步求精,克服原算法不能处理尺度变换的情形。实验结果表明,该算法简单高效,剔除误匹配点对能力较强,具有尺度、旋转不变性,同时,该算法具有较好的鲁棒性,正确性。能基本满足图像匹配的精度要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号