首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
针对城市行道树调查中,街景影像背景环境复杂多变、行道树个体差异大,依靠目视判读费时费力的问题,该文基于车载移动测量系统采集的全景影像数据,利用深度学习算法,在快速区域卷积神经网络的目标检测方法基础上,建立适用于街景行道树检测的深度神经网络模型。模型采用基于共有显著性区域及冗余策略的行道树多示例目标候选区域选择方法,使用车载图像的几何约束进一步筛选合适的候选区域,从而实现行道树目标候选区域的统一选择,提升行道树目标的检测效果。实验结果表明,该文提出的方法能够实现多种行道树的准确自动识别与提取,进而大大降低行道树绿化调查的成本。  相似文献   

2.
在室内场景的全景影像拼接过程中,易出现行人运动目标引起的“鬼影”现象。针对此问题,提出一种顾及行人的室内全景影像拼接方法,利用深度学习对整幅影像进行逐像素目标级分割,保持行人目标的完整性,并结合重匹配、显著度检测等对运动类型进行判定,生成带权的运动区域掩膜,结合灰度、梯度差及纹理复杂度等特征,融入基于图割算法的拼接线检测能量方程中,对行人区域进行补偿,最终生成背景干净、无“鬼影”的全景影像。  相似文献   

3.
一种高分辨率可见光遥感影像中车辆目标检测方法   总被引:4,自引:1,他引:3  
谷正气  李健  张勇  夏威  罗伦 《测绘通报》2015,(1):121-123
在高分辨率遥感影像中检测车辆目标是影像识别和检测的重要研究方向,能够为宏观交通状态判别提供支撑.本文设计了一种快速有效的基于高分卫星影像的车辆目标检测方法.该方法首先将与遥感影像对应区域的已有矢量面状道路对影像进行掩膜处理,仅留下影像中道路部分,再采用Otsu双阈值法分割道路中的暗色车目标和亮色车目标,最后利用车辆目标的形态特征对其进行检索,以获得车辆目标的检索结果.试验表明,本文方法具有较好的检测效果.  相似文献   

4.
提出了一种结合全景影像的车载街景点云数据增强方法,首先结合基于密度的聚类方法 DBSCAN(density-based spatial clustering of applications with noise)分割算法和地物典型特征实现点云数据的分类及单体目标提取;然后对单体目标点云,通过构不规则三角网(triangulated irregular network,TIN),逐一进行缺失区域检测及相应边缘提取;最后提出了基于全景影像局部仿射变换的区域增长密集匹配方法,用于生成缺失空洞区域的真实三维点,实现点云数据的增强。实验表明,该方法能够实现车载街景点云数据缺失区域的填补,且点云增强的结果真实、可靠。  相似文献   

5.
利用高分辨率遥感影像数据,研究停车场上普通车辆的自动提取方法。基于影像的灰度信息,分别采用边缘检测法、阈值分割法、区域生长法和点特征提取法等方法对遥感影像中的车辆目标进行检测。通过对比分析各种算法实验结果,探讨不同算法进行车辆检测的效果,并利用灰度线性变换的方法对阈值分割法进行了改进,提高了普通车辆目标检测效果。  相似文献   

6.
及时发现和处理山坡上小的点状石头目标,对于行人、车辆的安全具有重要意义.利用数学形态学,文中提出了一种从遥感影像上检测山坡上点状石头目标的方法,并进行了试验.研究结果表明,文中所述的方法具有好的效果.  相似文献   

7.
充分考虑不同数据源在变化场景下的数据差异性和行人在导航定位服务中的空间认知习惯,提出了一种融合可视地标与不可视地标的行人相对定位方法。利用基于传感器复合证据理论的方法构建目标路径的不可视地标(如磁场变化、WiFi更新等),检测GoPro Fusion设备获取的全景影像中的视觉显著的可视地标及其与采样点间的相对空间方位属性;根据行人实时获取的传感器数据和地标方位信息分别推估行人在目标路径中可能停留的路段区域;采用贝叶斯概率融合方法融合可视地标与不可视地标数据进行行人定位结果推估。实验结果表明,融合多源数据可以解决单一场景下行人定位精度不足的问题。在传感器特征较少的单一场景下,与基于不可视地标的行人定位方法相比,该方法的精度提升了12.78%。  相似文献   

8.
针对在线街景服务发布需要模糊车牌从而保护隐私的问题,该文从街景场景中车牌的纹理、色彩和几何特性出发,提出了一种由粗到精的车牌识别方法。首先基于影像边缘形态学滤波和颜色分量自适应匹配提取候选区域,然后经过去伪和倾斜校正进行车牌的识别和提取;为了进一步提高精度,将初次识别结果作为支持向量机系统的样本,训练特征矩阵用于识别结果的精化。多地街景数据实验表明:该方法对大畸变复杂街景环境有较强鲁棒性,有效提高了街景中的车牌识别准确率。研究结果可广泛应用于在线街景服务,提高生产效率。  相似文献   

9.
针对传统舰船检测方法中流程繁琐,速度较慢且对于复杂背景区域的检测精度较低等问题,该文提出了一种改进的Faster R-CNN深度神经网络端到端自动检测方法。该方法通过数据增强技术对数据集进行扩充,使用深度残差网络ResNet替代传统平网络VGG-16对数据集进行特征提取,在区域生成网络中针对舰船目标长宽比较高的特点修改了标定框的长宽比,较好地解决了传统检测方法步骤繁琐,速度较慢等缺点,实现了对遥感影像舰船目标的自动检测。实验结果表明,改进后的Faster R-CNN检测算法能够对遥感影像中的舰船目标进行快速的精确检测,准确率可达92.3%,检测速度达到每秒5帧。即使在面对遥感影像背景复杂、目标局部遮挡问题时也能准确识别。和传统的ENVI与eCognition分类手段相比,该方法提升了目标检测效果和识别效率,Faster R-CNN检测算法相比该方法提升了检测精度。  相似文献   

10.
针对街景影像中交通标志识别存在的问题,结合交通标志的对称性特点和Hough变换对图形检测的抗残缺能力,提出一种基于Hough变换搜索交通标志中心点的交通标志检测方法。在识别过程中,利用SIFT算法将提取的目标区域依次与对应模板库中的模板影像匹配进行交通标志的识别。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号