首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   12篇
  免费   0篇
  国内免费   1篇
测绘学   7篇
大气科学   2篇
海洋学   2篇
综合类   1篇
自然地理   1篇
  2022年   4篇
  2021年   4篇
  2020年   2篇
  2019年   2篇
  2017年   1篇
排序方式: 共有13条查询结果,搜索用时 31 毫秒
1.
立交桥结构的自动识别对道路网多尺度建模、空间分析和车辆导航具有重要意义。传统基于矢量数据的立交桥识别方法过分依赖人工设计的特征,对复杂场景的适应性较差。本文提出了一种基于目标检测Faster R-CNN神经网络模型的立交桥识别方法,该方法利用卷积神经网络学习立交桥样本的深层次结构特征,进而实现立交桥的自动识别与准确定位。试验结果表明,该方法对立交桥的识别效果较好,能够在复杂的道路网中准确确定立交桥的位置,避免了人为干预对试验结果不确定性的影响,抗干扰性较强。  相似文献   
2.
鳗鲡(Anguilla)作为我国优质水产养殖种类,精准掌握其数量对高效养殖有重要意义。为实现对循环水养殖鳗鲡的准确计数,提出了一种基于深度学习的改进Faster RCNN模型。针对检测目标即鳗鲡头部尺寸小的问题,选择在特征提取网络ResNet50中加入FPN结构来作为模型的骨干网络,以提取并融合多尺度的特征;针对原模型锚框都是基于人工经验设置的,并不适用于鳗鲡数据集的问题,使用k-means聚类算法对训练集中标注的鳗鲡头部检测框进行聚类分析,获得了适合鳗鲡数据集的15种不同尺度的锚框;针对图像中存在鳗鲡头部重叠的问题,选择使用Soft-NMS算法替代原NMS算法对RPN部分生成的候选框进行筛选,以减少模型对鳗鲡重叠部分的漏检情况。试验结果表明:改进后的Faster RCNN模型对鳗鲡头部的检测精度(mAP0.5)高达96.5%,较原Faster RCNN模型(Backbone为ResNet50)显著提升了14%,与SSD300和YOLOV3模型相比分别显著提升了24.9%和15%;在鳗鲡计数上,利用改进后的Faster RCNN模型检测结果进行计数,计数准确率达到90%以上,提升了模型对鳗鲡的检测识别能力。  相似文献   
3.
蝗虫是常见的害虫之一,对农作物和生态系统具有很大的危害,采用常规的方法对蝗虫进行监测存在一定局限性,为了有效应用海量野外影像数据实现对蝗虫实时监测,本文建立了一种基于深度学习网络的蝗虫自动识别模型。利用手机模拟摄像头获取的内蒙古锡林浩特附近草原的280张蝗虫的RGB图像,采用深度学习算法中的Faster R-CNN(Faster Region-based Convolutional Neural Network)网络结构建立了蝗虫识别模型。经验证该模型的精确度为0.756,可以较准确地将蝗虫从野外复杂环境中识别出来,与以往同类研究相比,在识别结果和实用性方面均有较大的进步。该模型是建立蝗虫实时监测系统的基础,可以为蝗虫的防治提供辅助信息,同时该网络结构还可以应用于其他害虫的识别,具有较强的推广性,拓宽了深度学习算法的应用领域。  相似文献   
4.
沙苗苗  李宇  李安 《遥感学报》2022,26(8):1624-1635
为了提高遥感图像中多尺度飞机目标的检测精度,本文提出一种基于改进Faster R-CNN的遥感图像飞机目标检测方法。该方法借助多层级融合结构,将深层次的语义特征与浅层次的细节特征相结合,生成多种尺度的既具有精确的位置信息又具有深层次的语义特征的特征图;再借助Faster R-CNN的多尺度RPN(Region Proposal Network)机制,通过对RPN中候选区域尺度的修正,从而提高遥感图像中多尺度飞机目标的定位精度;最后利用Faster R-CNN的分类回归网络,得到飞机目标检测结果。在高分辨率遥感图像中进行了实验,对3种特征提取网络ZF、VGG-16以及ResNet-50进行改进,改进后的精度分别提高了11.34%、9.87%以及1.66%,并且生成的检测框更加贴合飞机目标。实验结果表明,本文方法适用于遥感图像多尺度飞机目标检测,在提高目标定位精度的同时降低了目标漏检现象。  相似文献   
5.
面向食品领域的图像检索和分类等方面的研究成为多媒体分析和应用领域越来越受关注的研究课题之一.当前的主要研究方法基于全图提取视觉特征,但由于食品图像背景噪音的存在使得提取的视觉特征不够鲁棒,进而影响食品图像检索和分类的性能.为此,本文提出了一种基于Faster R-CNN网络的食品图像检索和分类方法.首先通过Faster R-CNN检测图像中的候选食品区域,然后通过卷积神经网络(CNN)方法提取候选区域的视觉特征,避免了噪音的干扰使得提取的视觉特征更具有判别力.此外,选取来自视觉基因库中标注好的食品图像集微调Faster R-CNN网络,以保证Faster R-CNN食品区域检测的准确度.在包括233类菜品和49 168张食品图像的Dish-233数据集上进行实验.全面的实验评估表明:基于Faster R-CNN食品区域检测的视觉特征提取方法可以有效地提高食品图像检索和分类的性能.  相似文献   
6.
目标识别是遥感高分辨率影像时代的重要应用方向。采用深度卷积神经网络对遥感影像学习训练,能够从遥感影像中自动提取出多个具有代表性的典型地物特征以及特征组合,并应用于多变而复杂的遥感影像数据中进行目标分类识别。本研究选用NWPU VHR-10数据应用于Faster R-CNN卷积神经网络模型中,并采用MAP进行评价,研究中得到了较好的检测精度,证明在遥感影像数据中采用深度卷积神经网络进行目标识别有着广阔的应用前景。  相似文献   
7.
深度学习方法可有效提高传统基于遥感影像的设施农业典型地物识别与提取方法的结果精度,对传统农业的转型和发展意义重大。本文针对遥感影像大背景小目标的特点,以及设施农业典型地物的图像特征,结合深度残差思想和Faster R-CNN提出DRTOMA算法:首先,使用深度残差网络作为其基础特征提取网络,以此获得更深层次的图像特征,并抑制网络退化和衰退问题;然后在残差单元和全连接层之间加入改进的空间金字塔池化层,从而去除输入图像固定大小的限制,增加网络对图像尺度的敏感度;最后,在全连接层间添加dropout层,减少网络计算的复杂度,提升抗过拟合效果。仿真结果表明:同部分已有的检测算法相比,DRTOMA算法的平均识别准确率和召回率均取为最优,分别为91.87%和90.63%;在最优识别精度近似的情况下,DRTOMA算法比Faster R-CNN算法的召回率高约2%,网络更易收敛,训练难度较低。综上所述,DRTOMA算法是一种有效可行的设施农业典型地物检测方法。  相似文献   
8.
ABSTRACT

Road intersection data have been used across a range of geospatial analyses. However, many datasets dating from before the advent of GIS are only available as historical printed maps. To be analyzed by GIS software, they need to be scanned and transformed into a usable (vector-based) format. Because the number of scanned historical maps is voluminous, automated methods of digitization and transformation are needed. Frequently, these processes are based on computer vision algorithms. However, the key challenges to this are (1) the low conversion accuracy for low quality and visually complex maps, and (2) the selection of optimal parameters. In this paper, we used a region-based deep convolutional neural network-based framework (RCNN) for object detection, in order to automatically identify road intersections in historical maps of several cities in the United States of America. We found that the RCNN approach is more accurate than traditional computer vision algorithms for double-line cartographic representation of the roads, though its accuracy does not surpass all traditional methods used for single-line symbols. The results suggest that the number of errors in the outputs is sensitive to complexity and blurriness of the maps, and to the number of distinct red-green-blue (RGB) combinations within them.  相似文献   
9.
针对新疆南疆大规模枣园的检测识别,本文提出了一种基于泛化迁移深度学习的枣园目标检测识别方法。以GF-6卫星影像数据为基础制作了Jujube数据集,并将其泛化扩充增强;以Faster R-CNN体系为基础,利用多态协同模式实现数据集的有效关联和优化重构,进行检测识别模型的迁移深度学习以提高对目标对象检测识别的泛化能力。结果表明,模型算法的验证识别精确率、召回率和调和平均值分别达0.979、0.952和0.965,在应用测试中,3个指标平均值均大于0.929,优于传统检测方法,且本文模型方法总体分类精度为0.97,Kappa系数为0.93,均高于面向对象最邻近法,能够有效地满足研究区规模化枣园目标检测识别的精度和效率的要求,为精细化枣园田间管理提供基础依据。  相似文献   
10.
图像目标检测是计算机视觉与数字图像处理的一个热门方向,其主要任务是找出图像中感兴趣的物体并确定物体的位置与类别。目前基于深度学习模型是主流的目标检测算法,利用其解决诸多学科问题成为一种趋势。本文采用区域卷积神经网络(Faster R-CNN)深度学习算法和相关图像处理算法,以ResNet50、ResNet101为骨干网络,采用特征金字塔网络开展新冠疫情期间武汉市车辆变化监测,以此分析疫情下的武汉市内部活动强度。结果显示:本文车辆目标检测方法的精确率为0.96,召回率为0.92,平均精度为0.85。疫情前(2019年11月17日)、中(2020年02月22日)车辆变化情况为:武汉汇聚中心分别为263、32辆,汪家嘴立交桥分别为89、44辆,新兴工业园分别为554、347辆,经开未来城分别为188、57辆。可知,疫情导致武汉市人口出行减少、车辆活动明显降低。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号