排序方式: 共有2条查询结果,搜索用时 0 毫秒
1
1.
利用网络图进行高分辨率航空多视影像密集匹配 总被引:1,自引:1,他引:0
提出了一种基于网络图的高分辨率航空多视影像密集匹配算法。首先利用影像间的重叠关系和方向确定候选立体像对并构建网络图;在立体像对密集匹配阶段,引入导向中值滤波采用由粗到精的改进半全局匹配(SGM)算法进行双向视差图生成;最后基于所有立体像对构建的网络图完成多视影像间的密集点云生成及融合。试验选取了ISPRS的Vaihingen航空影像和ISPRS/EuroSDR项目的苏黎世倾斜下视影像进行试验,结果表明:本文算法对高分辨率多视影像密集匹配是有效可行的,无论在匹配完整性、效率、精度上都能获取较好的结果,重建的密集点云平均反投影误差的中误差可以达到亚像素级精度,实际精度可以达到1.5倍GSD,并且在建筑物、植被、水体等视差不连续、弱纹理或重复纹理区域也取得了较好的匹配结果。 相似文献
2.
传统词包模型的视觉词典忽略了场景本身包含的类别信息,难以区分不同类别但外观相似的场景,针对这个问题,本文提出一种顾及场景类别信息的视觉单词优化方法,分别使用Boiman的分配策略和主成分分析对不同场景类别视觉单词的模糊性和单词冗余进行优化,增强视觉词典的辨识能力。本文算法通过计算不同视觉单词的影像频率,剔除视觉词典中影像频率较小的视觉单词,得到每种场景的类别视觉词典,计算类别直方图,将类别直方图和原始视觉直方图融合,得到不同类别场景的融合直方图,将其作为SVM分类器的输入向量进行训练和分类。选取遥感场景标准数据集,验证算法,实验结果表明:本算法能适应不同大小的视觉词典,在模型中增加场景类别信息,增强了词包模型的辨识能力,有效降低场景错分概率,总体分类精度高达89.5%,优于传统的基于金字塔匹配词包模型的遥感影像场景分类算法。 相似文献
1