首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 156 毫秒
1.
针对遥感影像场景复杂,飞机目标尺寸小、特征不明显的问题,提出一种基于改进YOLOv3的遥感影像飞机目标检测算法。首先对YOLOv3的特征提取网络的结构进行改进,并将网络的检测尺度由3个扩展至4个,提高小目标的检测率;其次采用线性加权的非极大值抑制算法,降低排列交错紧密的小目标的漏检率;最后在本文设计的数据集上将该算法与YOLOv3进行对比实验。结果表明,改进后的算法对复杂背景下的小尺寸飞机目标的检测准确率和召回率均有明显提升,验证了本文算法的有效性和鲁棒性。  相似文献   

2.
行人检测是计算机视觉、智能交通等领域研究的热点与难点,基于深度传感器对室内复杂场景下的行人检测展开研究。目前,基于颜色与深度数据的目标检测方法主要包括基于背景学习的方法和基于特征检测算子的方法,前者依赖于视频序列头几十帧的背景知识,帧的数量决定检测质量;后者存在计算量大的问题,训练样本的不足也会影响行人检测结果。因此,深入分析了复杂场景特征,融合颜色和深度信息,提出了RGBD+ViBe(visual background extractor)背景剔除方法,实现前景运动目标的准确提取。实验结果表明,提出的RGBD+ViBe方法在前景运动目标检测准确率方面要明显高于仅考虑颜色或深度信息方法以及RGBD+MoG(model of Gaussian)方法。  相似文献   

3.
针对人工监测无法及时、高效地发现视频中车辆和行人违规情况的不足,构建了地理空间视角下,兼顾动态目标在地理场景下的属性、时空关系和语义信息的轨迹模型(trajectory model,Tra-Model),设计了视频与GIS协同的交通违规行为分析方法,基于轨迹与规则几何约束条件对目标逆行、压线、禁止进入3类违规情况进行实时检测。以某高校为实验场地,分析不同交通场景下目标的3类违规情况。实验结果表明:(1)Tra-Model模型提取的轨迹包含目标类型、轨迹序列等语义信息,相比于现有动态目标跟踪算法,精准率提高15.6%;(2)所提方法对多个摄像机序列违规分析准确率均在70%以上,相对于现有方法具有更好的性能;(3)实现了地理场景下多种交通违规行为综合分析的全局性、高精度和探测类型多样性。  相似文献   

4.
针对低空飞行器(飞艇)为平台获取的高清晰交通视频数据,通过对交通视频序列数据进行运动补偿与配准,提出了一个在复杂变化背景下基于帧差法的运动目标(车辆)快速检测与提取方法。实验结果验证了本方法的准确与可靠性。  相似文献   

5.
为解决现有视频图像火焰检测方法精度低、速度慢的问题,提出了改进Yolo-v3的视频火焰实时检测算法。首先,在特征提取阶段,通过进一步融合多尺度特征提高网络对图像浅层信息的学习能力,以实现小火焰区域的精准识别;其次,在目标检测阶段,利用改进的K-means聚类算法优化多尺度先验框以适应火焰不同尺寸;最后,在改进Yolo-v3的视频火焰检测之后,利用火焰特有的闪烁特征对检测结果中的误检帧进行排除,进一步提高检测精度。从精度和速度两个方面对视频火焰进行检测,并与近年来先进的火焰检测算法对比,结果表明,该方法准确率均值可达到98.5%,误检率低至2.3%,平均检测速率为52帧/s,在精度和速度方面皆有更好的表现。  相似文献   

6.
光学卫星视频能够进行动目标连续监视,已成为当前研究热点。但目前多数研究仅针对基于视频像方的目标检测、跟踪及轨迹提取等方面,没有充分利用卫星载荷成像几何模型进行物方运动状态定量估计和精度验证。因此,本文提出一种基于光学卫星视频的舰船目标运动状态定量估计方法,首先对卫星视频首帧进行精确定向;然后通过帧间稳像方法得到背景稳定的视频帧序列,在此基础上,针对正框目标跟踪方法定位精度低的问题,提出一种顾及旋转和尺度变化的舰船稳健跟踪方法进行目标跟踪;最后进行物方映射并估计目标运动轨迹、速度和方向。利用吉林一号光学视频卫星开展星海同步观测试验。实测结果表明,稀疏控制条件下的舰船目标几何定位精度为1.60 m,速度估计精度为0.18 m/s,方向估计精度为4.05°,相比同类方法具有显著提升,证明了本文方法的有效性和可行性。  相似文献   

7.
视频卫星可提供大尺度运动场景的实时监控,而运动目标检测是其应用的核心问题。本文设计并实现了目前3种主流的运动目标检测方法,以路面交通监控视频和卫星视频为应用背景,详细探讨了3种方法在检测精度、实时性和运动目标完整性等方面的优缺点和适用条件。实验表明:混合高斯模型方法在多目标复杂背景下,表现出较强的适应性。粒子滤波法具有抗灰尘噪声干扰特性,运动目标边缘保持较好。  相似文献   

8.
监控视频中动态目标的精准定位与跟踪作为计算机视觉领域中重要的研究方向,近年来已成为监控领域的研究热点。传统视频动态目标检测仅依赖图像特征数据,忽略了与地理坐标系精准匹配,特别是对于多个摄像机覆盖的区域,拍摄的角度不同,投影后形成的图像空间分辨率也不同,因此,难以满足智能监控在复杂的地理场景中全方位时空信息感知。本文提出一种多摄像头协同的视频监控图像与地理空间数据互映射模型构建方法来获取动态目标的轮廓和地理位置等时空信息,首先建立监控图像信息与地理空间数据的互映射关系,将观测角度不同、尺度不同和空间分辨率的监控图像置于同一坐标系下,并在此基础上通过融合Canny算子与背景减法来检测目标的边缘信息;然后采用质心偏移算法还原目标在该场景的实际位置,从而实现多角度下连续跟踪,提升地理场景的时空理解力和分析力,提高动态目标的精准定位与跟踪能力。  相似文献   

9.
快速准确地了解灾害现场状况是救灾过程中的重中之重。通常发生灾害都会使用无人机进行现场勘察,但是无人机视频难以与实际的地理场景关联起来,为此本文提出了一种移动视频与地理场景的融合方法。该方法首先采用具有仿射不变性的ASIFT算法检测特征点,将匹配后的特征点采用RANSAC算法进行迭代剔除噪点,计算视频与地理场景最优的透视变换矩阵模型参数;然后将计算得到的透视变换参数应用到视频数据,恢复视频角点坐标;最后通过内插得出所有视频帧的角点坐标,实现视频与DOM的精确融合。试验结果表明,对视频数据匹配的间隔帧越短,其整体融合精度越高,通过本文方法进行视频与地理场景融合的误差标准差低于10 m。  相似文献   

10.
针对传统遥感影像油罐目标检测算法依赖油罐圆形特征,对于背景复杂和存在大量小目标的情况检测效果差的问题,提出一种多尺度并联卷积神经网络油罐目标检测算法.首先根据油罐目标尺寸对各神经网络检测效果的影响规律,采用不同网络架构分别检测不同尺寸的油罐目标;其次利用经过训练的分类网络对上述检测结果进行后处理,剔除可能存在的误检;最后将所有结果共同进行非极大值抑制,从而实现不同尺寸油罐目标的检测.对多个数据集下的遥感影像进行了测试,实验结果表明,与传统经典的目标检测算法相比,该算法明显提高了油罐目标的检测精度、召回率和鲁棒性;同时级联分类网络对检测结果的后处理过程也大大降低了油罐目标检测的虚警率,提高了可靠性.  相似文献   

11.
视频拼接是图像拼接的外延,在场景监控、目标识别等应用中发挥着重要作用。传统视频拼接算法多要求视频间具有较大重叠区域且特征点匹配过程中只顾及图像几何特征,当处理交通监控视频时,会因不同摄像头之间重叠区域极小或主光轴之间夹角较大而导致无法拼接或图像变形较大。为此,本文提出一种交通监控视频图像语义分割及其拼接方法。首先,利用边缘角度二阶差分直方图算法自动识别多视频交汇区域的正射影像,并将其作为拼接背景图像;然后,基于全卷积神经网络对正射影像和视频图像进行语义分割,提取图像中的交通专题语义;最后,以交通专题语义作为约束进行特征点匹配,将各个交通监控视频匹配至背景正射影像,实现监控区域视频拼接。采用山东省某市实际视频数据进行试验验证,结果表明对于重叠区域较小的监控视频,本文方法可获得较好地拼接图像,同时可有效提高特征点匹配的准确度。  相似文献   

12.
发现运动目标并获得运动目标的地理位置与运动速度,是光学视频卫星非常重要的一个高精度应用。现有光学卫星视频稳像方法虽然可以获得稳定流畅的视频数据,但视频数据中缺少几何信息,难以满足这一应用需求。针对该问题,提出一种带有地理编码的光学视频卫星物方稳像方法。该方法充分利用卫星视频帧的定向参数信息,构建基于视频帧定向模型的帧间运动模型,并通过辅帧定向参数的运动补偿,实现视频序列帧间几何一致性,再在物方空间对视频序列进行地理编码,生成带有地理编码的流畅视频数据。经对珠海一号卫星视频数据的试验结果表明,该方法可以有效消除卫星平台抖动和卫星定轨测姿等误差对卫星视频帧间几何精度的影响,获得的帧间几何精度与视频稳像精度均优于0.3像素。  相似文献   

13.
The quality of dynamic map symbols plays an important role in the representation of spatial-temporal changes. This paper reports an investigation into the quality of dynamic symbols. To assess the quality of such symbols, a set of traffic flow data is used for the production of different kinds of dynamic maps, with focus on four variables, i.e. size, color, frame rate and display format. Two quantitative measures are used for analysis, i.e. deviation and response time. A set of traffic data is used for the production of dynamic maps for evaluation. The experimental results show that the size is more efficient and more effective than color for dynamic maps with the same frame rate and display format. The most efficient and effective color class number is 10 on the large format display such as 1024 × 768 pixels. And the most efficient and effective size class number is 15 on large format display such as 1024 × 768 pixels. The effective frame rate for dynamic map animation is smaller than that of the general animation on the Internet or Quick Time and AVI format video. The most efficient and most effective frame rate is 3 frames per second in the color expression and 6 frames per second in the size expression. In sum, the effective and efficient value of color, size and frame rate on large format display is less than the value on the small format display. These results suggest the frame rate should be reduced on the small format display. It is hoped that the results from this study will be of help in the design of effective and efficient dynamic map symbols for geographical information visualization.  相似文献   

14.
船舶作为海上运输载体,其准确检测在海洋环境保护、海上渔业生产管理、海上交通与应急处置及国防安全应用中都具有重要意义和价值。目前基于目标检测网络的遥感船舶检测方法因末层特征分辨率不足和卷积固定的几何结构,导致网络难以适应小尺度且具有随机朝向、形态多变特征的船舶目标,进而限制船舶检测精度。针对该问题,本文提出一种用于遥感影像船舶检测的特征金字塔网络建模方法。首先引入形变卷积/RoI池化模块,以适应朝向和形态多变的船舶目标;其次借鉴在小目标检测中性能出色的特征金字塔网络的建模思想,采用对称式网络和多尺度特征融合的方式进一步融合高级语义和低级空间信息,提升小尺度目标特征分辨率。在40 000幅、船舶目标67 280余个的遥感影像数据集上的试验结果表明,本文方法能够有效集成形变卷积/RoI池化和多尺度特征融合方法,相较传统CNN船舶检测方法取得明显提升,在准确率、召回率及F_1指标上分别达到85.8%、97.9%和91.5%。  相似文献   

15.
ABSTRACT

An Augmented virtual environment (AVE) is concerned with the fusion of real-time video with 3D models or scenes so as to augment the virtual environment. In this paper, a new approach to establish an AVE with a wide field of view is proposed, including real-time video projection, multiple video texture fusion and 3D visualization of moving objects. A new diagonally weighted algorithm is proposed to smooth the apparent gaps within the overlapping area between the two adjacent videos. A visualization method for the location and trajectory of a moving virtual object is proposed to display the moving object and its trajectory in the 3D virtual environment. The experimental results showed that the proposed set of algorithms are able to fuse multiple real-time videos with 3D models efficiently, and the experiment runs a 3D scene containing two million triangles and six real-time videos at around 55 frames per second on a laptop with 1GB of graphics card memory. In addition, a realistic AVE with a wide field of view was created based on the Digital Earth Science Platform by fusing three videos with a complex indoor virtual scene, visualizing a moving object and drawing its trajectory in the real time.  相似文献   

16.
Increasing concern for urban public safety has motivated the deployment of a large number of surveillance cameras in open spaces such as city squares, stations, and shopping malls. The efficient detection of crowd dynamics in urban open spaces using multi-viewpoint surveillance videos continues to be a fundamental problem in the field of urban security. The use of existing methods for extracting features from video images has resulted in significant progress in single-camera image space. However, surveillance videos are geotagged videos with location information, and few studies have fully exploited the spatial semantics of these videos. In this study, multi-viewpoint videos in geographic space are used to fuse object trajectories for crowd sensing and spatiotemporal analysis. The YOLOv3-DeepSORT model is used to detect a pedestrian and extract the corresponding image coordinates, combine spatial semantics (such as the positions of the pedestrian in the field of view of the camera) to build a projection transformation matrix and map the object recorded by a single camera to geographic space. Trajectories from multi-viewpoint videos are fused based on the features of location, time, and directions to generate a complete pedestrian trajectory. Then, crowd spatial pattern analysis, density estimation, and motion trend analysis are performed. Experimental results demonstrate that the proposed method can be used to identify crowd dynamics and analyze the corresponding spatiotemporal pattern in an urban open space from a global perspective, providing a means of intelligent spatiotemporal analysis of geotagged videos.  相似文献   

17.
影像目标跟踪定位技术是当前计算机视觉领域的研究热点,目标跟踪算法也是现阶段将视频结果用于定位的薄弱环节之一.本文分析了像素级目标跟踪存在的问题,根据深度学习在图像领域的最新研究成果与视频跟踪需求,结合最新的图像分割、卷积神经网络(CNN)、循环神经网络(RNN)和加密解码结构等方法提出了一种像素级视频目标跟踪算法.使用公开数据集实现算法并设计了定量评价指标.实验结果表明该算法具有较强的像素级视频目标跟踪定位能力   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号