首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   3篇
测绘学   3篇
海洋学   3篇
  2023年   1篇
  2022年   2篇
  2021年   2篇
  2020年   1篇
排序方式: 共有6条查询结果,搜索用时 15 毫秒
1
1.
侧扫声呐海底沉船图像识别是水下障碍物核查和失事船只搜救中的一项重要工作.针对传统侧扫声呐图像人工判读存在效率低、耗时长、资源消耗大及主观不确定性强和过分依赖经验等问题,本文尝试引入卷积神经网络的方法,同时考虑到侧扫声呐沉船图像属于小样本数据集,提出一种基于迁移学习的卷积神经网络侧扫声呐沉船图像自动识别方法.通过归一化处理、图像增强等方式扩充样本数据,并以4:1的比例划分训练集和测试集,同时参照经典VGG-16模型,根据侧扫声呐沉船数据集特点设计了改进的模型,然后将在Ima geNet图像数据集上训练好的改进模型在小样本侧扫声呐沉船数据集上采用冻结和训练、微调两种迁移学习方式进行学习和试验,并与全新学习进行比较分析,结果表明,3种方法对侧扫声呐沉船图像识别的准确率分别为93.71%、84.49% 和90.58%,其中第1种迁移学习方法准确率最高,模型收敛速度最快,且AP值最高为92.45%,分别比第2种迁移学习方法和全新学习高了8.06% 和3.06%,在提高模型的识别能力和训练效率方面效果更佳,验证了该方法的有效性与可行性,具有一定实际指导意义.  相似文献   
2.
针对多波束水深测量中未明确定义表层声速限差范围,导致在数据采集过程中无法实时监控表层声速误差的问题,结合多波束数据采集与归算流程,分析并推导了SSP误差影响下的波束指向角与点位归算误差模型。结合数值计算,研究了不同水深下测深误差随SSP之间的变化规律与量级大小,从而针对SSP限差范围提出合理化建议,对提高数据质量具有一定应用价值。  相似文献   
3.
为更准确地评估多波束测量数据质量,以常梯度声线跟踪模型为基础,结合Rob Hare经典误差分类,构建了回波检测方式、吃水改正和升沉改正误差综合影响下的多波束测深误差改进模型。通过对实例误差源分解对比和交叉点中误差对比分析,验证了改进模型的正确性。实例计算表明,该模型较Rob Hare模型可减少CUBE曲面2%的交叉点中误差,验证了改进模型的有效性和优势。改进模型考虑的误差因素更多,误差成因分析更为完善,有助于更准确地分析各误差源导致的误差量级大小,研究成果为数据质量控制、数据检核提供理论依据和技术支撑。  相似文献   
4.
针对当前多波束分辨率模型未考虑波束横向覆盖的重叠,导致横向分辨率估计不准确的问题,提出了一种顾及波束重叠的多波束横向分辨率估计模型。结合多波束等角与等距模式的工作原理,分析了两种模式下测深空间的几何关系,在顾及波束重叠影响基础上推导了两种模式的多波束横向分辨率计算公式。结合算例,研究了不同水深下横向分辨率随波束入射角的变化规律及量级大小。最后从分辨率角度分析了两种模式的优缺点,为多波束测量技术设计及系统技术性能的评估提供参考。  相似文献   
5.
针对多波束测深系统由于存在运动残差而产生横摇误差,从而导致数据条带边缘呈现“波浪”状周期性起伏的问题,提出了一种基于列文伯格-马夸尔特(Levenberg-Marquardt,LM)算法的多波束横摇残差改正方法。该方法首先建立水深与横摇残差之间的函数关系式,然后采用非线性最小二乘LM算法并结合剖面趋势线构建思想进行横摇残差提取,最终实现对海底地形的改正。实例计算结果表明,改正后地形过渡更加平滑,趋近真实海底;左、右舷剖面水深标准差降低约50%,而剖面水深均值则几乎不变;对两组横摇序列进行相似性计算,初步判断横摇残差包含延时与杆晃影响。所提方法能够较准确地提取系统横摇残差,改正后海底地形起伏相对标准差明显降低,有效地削弱了运动残差对多波束测深数据的影响。  相似文献   
6.
针对传统船载声纳探测水下目标存在成像分辨率低、主观性强、耗时长、应用区域局限,以及自主式水下潜航器(autonomous underwater vehicle, AUV)受水声通信限制导致数据无法实时回传、处理及目标实时探测的问题,提出了一种基于AUV的声纳水下目标实时探测机制。首先对基于AUV搭载声纳设备实施水下目标探测的系统进行了阐述;然后提出了基于AUV的声纳水下目标实时探测实施流程和关键技术;最后通过海上试验,验证了该机制在一定程度上克服了水声通信限制,实现实时、高效、智能的水下目标探测,具有较强的实际指导意义。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号