首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 312 毫秒
1.
扩展卡尔曼滤波技术可以利用序列观测重力异常数据以及航行区域重力异常基准图来校正惯性导航系统漂移误差。针对因重力测量环境的变化、测量仪器扰动等因素造成的重力异常观测噪声不确定问题,提出了基于量测残差自适应估计观测噪声协方差(residual-based adaptive estimation,RAE)的重力异常滤波匹配算法;设计了一组并行卡尔曼滤波器,并简化了最优滤波器的选择准则。不同重力特征区域的实验表明,该算法能够有效降低惯性导航系统经纬向漂移误差,提高系统的导航定位精度。  相似文献   

2.
重力数据在使用上需要通过进一步的精化和融合,并利用精确的插值技术进行加密处理,以满足实际应用的重力数据基础。本文提出一种基于粒子群算法(Particle swarm optimization,PSO)优化BP神经网络的方法,并应用于重力数据推估。通过仿真实验对比分析了PSO-BP神经网络、普通BP网络和传统克里金方法在重力异常插值上的效果,发现本文方法在均方差、差值稳定性上具有一定优势,但运算时间较长。利用澳大利亚中部的重力观测数据对PSO-BP神经网络进行训练,结果表明,本文方法在整个区域的插值效果上优于BP神经网络和克里金方法,补充高程数据作为PSO-BP神经网络的输入,能进一步提升利用该方法推估自由空气重力异常场的精度。  相似文献   

3.
在小波多孔算法的基础上,提出了一种综合信号频率信息和幅值信息的连续重力观测数据多分辨率异常模式识别算法,利用小波分解得到高频区域的能量作为频率指标,与幅值相结合,对信号及其多孔小波分解结果进行多分辨率异常模式识别。利用模拟数据和实际超导重力观测数据对算法的有效性进行了验证,结果表明,该算法能够准确地在带有噪声的信号中识别模拟数据的异常模式,可应用于连续重力观测台网数据分析处理,对于提升台网观测数据质量以及地震预测等实际应用都具有重要意义。用此方法分析拉萨和武汉的3台超导重力仪2015-04-25尼泊尔地震前一天的秒采样数据后,得到一段27 min的在频率指标上有超过90%相似性的异常模式,这一结果的更深层次物理解释仍需要进一步研究。  相似文献   

4.
以最小二乘配置为基础,推导了基于观测信号的自适应融合算法。对渤海湾地区航空重力、陆地重力和卫星测高3类实测数据进行了基于观测信号的自适应融合处理,提高了融合区域重力观测数据精度。采用融合后的重力异常数据反演了渤海湾地区构造应力场,并结合地震历史资料进行初步分析,总结了该地区构造应力场的总体特征。反演结果表明,渤海湾地区构造应力场方向整体上呈现朝北方向,构造应力场清晰显现出郯庐断裂带和张家口-蓬莱断裂带分布,并且在郯庐和张家口-蓬莱断裂带唐山至张家口段构造应力聚集程度高、构造应力值也较大,表明该地区构造运动活跃,与该地区地震活动历史资料相符。  相似文献   

5.
重力匹配辅助导航理论大都建立在离散场的基础上的,为了研究基于连续场重力匹配算法以克服传统匹配算法的局限,必须建立精度高且具有良好解析性质的局部重力异常场解析模型。利用斐波那契数列寻优方法对一维高斯样条函数插值进行最优化,在此基础上提出了基于斐波那契数列寻优的二维高斯样条函数逼近局部重力异常场方法。为了提高寻优算法运算速度,将二维准则函数解耦为X方向和Y方向两个独立的一维准则函数,分别采用斐波那契数列寻优方法对这两个准则函数进行寻优以获取X方向和Y方向最优参数,最终得到高精度逼近局部离散格网数据的局部重力异常场连续解析模型。仿真实验中采用五组不同的参数对变化范围为-51.185mGal~86.1819mGal的重力异常场进行逼近。从最后的仿真实验结果可以看出采用最优参数时逼近绝对误差均值达到0.00069,相对误差均值更达到10-6级,能较好的满足了匹配导航要求,其逼近精度较采用其它非最优参数时均有较大提高,由此验证了文中提出的重构算法有效性。  相似文献   

6.
为实现大范围、高精度基准重力梯度数据库的构建,考虑到重力梯度场对地形质量的敏感效应,一般利用恒密度数字高程模型来求取重力梯度值,从而忽略了地形密度变化以及水准面以下密度异常对重力梯度的影响。根据重力位理论中求解边值问题的数值应用方法,直接利用重力异常数据求取重力梯度场,弥补了密度变化和密度异常在重力梯度上的反映。根据模型算例和实测重力异常数据求取了剖面重力梯度值,结果表明,限于重力数据空间分辨率的影响,利用重力异常数据可恢复中长波段重力梯度场。该方法与地形数据求取重力梯度和卫星重力梯度测量等方法技术相结合,对重力梯度数据库的建设具有实际应用价值。  相似文献   

7.
无味卡尔曼滤波(UKF)是一种通过采样来近似非线性分布,从而对非线性问题进行次优估计的滤波方法。利用实时观测得到的重力异常以及航行区域参考重力异常图,可以建立基于重力异常的UKF滤波匹配导航算法,以此校正惯性导航系统的漂移误差。针对选取与UT变换相同权系数来求取预测观测值而可能导致求得的预测观测值为伪观测值的问题,提出了利用关联概率密度函数对采样观测值进行加权的重力异常UKF滤波匹配导航算法。通过对某实验区域的实验进行计算分析,结果表明,基于关联概率密度加权重力异常UKF滤波算法能够克服传统加权预测观测值带来伪观测信息的问题,将惯性导航系统经纬向漂移误差降低至1.1 n mile以内,均优干传统加权算法和纯惯性导航系统的定位精度。  相似文献   

8.
地磁异常数据可以为水下潜器提供高隐蔽性的外部辅助信息,修正由惯性导航产生的累积误差。滤波匹配算法作为地磁辅助惯性导航中的核心技术,能够有效削弱地磁观测噪声不确定的影响。基于航迹仿真数据,将全球地磁异常格网数据作为基准图,提出使用量测残差自适应估计观测噪声方差的地磁异常并行扩展卡尔曼滤波匹配算法。通过建立一组基于地磁异常观测量的并行滤波器,结合最优滤波器选取准则来提高算法的可用性和鲁棒性。选取地磁特征分布不同的中国南海海域进行仿真匹配实验,结果表明,该算法能够有效降低纯惯性导航经纬向的匹配误差。仿真条件下,在地磁特征变化明显的区域,地磁辅助惯性导航系统的精度在纬度方向上提高至0.751 53 n mile,在经度方向上提高至0.778 45 n mile。  相似文献   

9.
地球重磁位场辅助水下潜艇导航仿真研究   总被引:1,自引:0,他引:1  
根据卫星测高反演的重力异常和全球地磁异常格网,构造了西太平洋海域2′×2′重力异常和磁场异常数据作为基准信息,结合SITAN滤波算法在该海域上的两块特征区域上,对比了重力和地磁辅助导航的效果。仿真结果表明,重力和地磁辅助导航的结果与潜艇航线上的重力和磁力信息丰富程度密切相关,两块区域上的两种辅助导航算法的精度都在2nmile左右。  相似文献   

10.
本文利用全球重力位模型、胶州市地面重力观测数据、胶州市GPS水准数据和数字地面模型(DTM),采用组合法应用移去-恢复技术计算剩余大地水准面,并与地球位模型计算的高程异常进行拟合,得到该地区重力似大地水准面,再和布测、计算得到的GPS/水准所构成的几何大地水准面拟合,利用多项式拟合完成系统改正,获得最终的大地水准面结果及相关的精度信息。  相似文献   

11.
综合应用小波多重分解法和小波多尺度边缘重构方法研究了重力异常的分离,发现该方法可以同时进行纵向和横向影响的有效分离,为复杂地区重力异常的合理分离提供了参考。在模拟实验的基础上,应用该分离方法对琉球俯冲带地区的重力异常进行了分离。在纵向分离中,提出根据重力异常和海底地形的相关性确定合适的分离尺度。在小波多尺度边缘分析中,通过选择合适的尺度范围同样可以达到分离横向重力异常的效果,而且比多尺度边缘重构方法简单。  相似文献   

12.
将传统直角坐标系中的滑动平均方法(包括圆周法与网格法)运用到球面重力异常分离中。模型实验及实际应用均表明,该方法优于直接截断重力场模型阶次分离异常的方法,能够更好地反映实际地质情况,不仅适用于全球区域也适用于局部区域。  相似文献   

13.
马志伟  陆洋  涂弋  朱传东  郗慧 《测绘学报》2016,45(9):1019-1027
多种类型高分辨率重力场数据的不断增加,使得在局部范围内精化重力场模型成为了可能。本文采用Abel-Poisson核将重力场量表示成有限个径向基函数线性求和的形式,对局部区域的多种重力场数据进行联合建模。为了提高运算速度,运用了基于自适应精化格网算法的最小均方根误差准则(RMS)来求解径向基函数平均带宽。以南海核心地区为例,联合两种不同类型、不同分辨率的重力场资料(大地水准面起伏6'×6'、重力异常2'×2'),构建了局部区域高分辨率的重力场模型。所建模型表示的重力场参量达到了2'×2'的分辨率,对原始的重力异常数据(2'×2')拟合的符合程度达到±0.8×10-5m/s2。结果表明,利用径向基函数方法进行局部重力场建模,避免了球谐函数建模收敛慢的问题,有效提高了模型表示重力场的分辨率。  相似文献   

14.
由于重力观测网点位分布不均匀,密度不够,在精细刻画区域重力场变化时受到很大限制,因此需采用合理的插值算法。文中介绍Kriging插值算法和变异函数理论模型的基础上,结合陕西地区2011—2012年离散重力变化数据,利用最小二乘法得到各个理论变异函数模型的拟合参数,并将实验变异函数模型用于Kriging插值算法,同时综合考虑交叉验证精度统计、插值精度统计结果,以此来研究Kriging插值算法的适用性,研究结果表明:基于最小二乘法获得的球形模型、指数模型拟合参数精度高,高斯模型、对数模型精度最差;基于球形模型、指数模型的实验变异函数用于Kriging插值算法得到的插值结果精度最高、图像平滑自然、异常区明显,是一种适合陕西地区重力离散数据进行插值计算的有效算法。  相似文献   

15.
卫星重力梯度向下延拓的最佳积分核谱组合解   总被引:8,自引:1,他引:8  
吴晓平  陆仲连 《测绘学报》1992,21(2):123-133
  相似文献   

16.
Summary A low cost lunar Satellite-to-Satellite radio tracking mission in a low-low configuration could considerably improve the existing knowledge about the lunar gravity field. The impact of various mission parameters that may contribute to the recovery of the gravity field, such as satellite altitude, satellite separation, mission duration, measurement precision and sampling interval were quantified using the Jekeli-Rapp algorithm. Preliminary results indicate that the gravity field resolution up to harmonic degree 40 to 80 is feasible depending on various mission configurations. Radio tracking data from a six-month mission with a precision of 1 mm s–1 every 10 s and 300 km satellite separation at 150 km altitude will permit the determination of 5o×5o mean gravity anomalies with an error of approximately 15 mgals. Consideration of other unaccounted error sources of instrumental, operational as well as environmental nature may lower this resolution.  相似文献   

17.
相对于传统的重力测量手段,重力梯度测量能够以更高的灵敏度和分辨能力反映出地下密度异常体的结构特征。由于拉格朗日经验参数在实测数据反演中存在不确定性,对预条件共轭梯度反演算法加以改进,利用L曲线的拐点值代替原反演算法中的拉格朗日经验参数作为正则化参数;为改善反演中存在的病态性问题并减弱核函数的快速衰减,将地下模型改进为不等间隔模型;为改善反演中解的非唯一性,利用重力梯度的5个独立分量进行联合反演;通过对澳大利亚Kauring试验场航空重力梯度张量进行联合反演,得到该地区异常体的三维密度分布,将重力梯度联合反演结果与之前的重力反演结果对比分析,发现在中心异常体附近沿线还分布着多个异常块体。结果表明,改进后的算法能够有效地利用实测重力梯度数据反演出密度异常体的分布信息。  相似文献   

18.
The problems of the earth’s gravity fields’ visualization are both focus and puzzle currently. Aiming at multiresolution rendering, modeling of the Earth’s gravity fields’ data is discussed in the paper by using LOD algorithm based on Quad Tree. First, this paper employed the method of LOD based on Quad Tree to divide up the regional gravity anomaly data, introduced the combined node evaluation system that was composed of viewpoint related and roughness related systems, and then eliminated the T-cracks that appeared among the gravity anomaly data grids with different resolutions. The test results demonstrated that the gravity anomaly data grids’ rendering effects were living, and the computational power was low. Therefore, the proposed algorithm was a suitable method for modeling the gravity anomaly data and has potential applications in visualization of the earth’s gravity fields.  相似文献   

19.
The accuracy of the gravity field approximation depends on the amount of the available data and their distribution as well as on the variation of the gravity field. The variation of the gravity field in the Greek mainland, which is the test area in this study, is very high (the variance of point free air gravity anomalies is 3191.5mgal 2). Among well known reductions used to smooth the gravity field, the complete isostatic reduction causes the best possible smoothing, however remain strong local anomalies which disturb the homogeneity of the gravity field in this area. The prediction of free air gravity anomalies using least squares collocation and regional covariance function is obtained within a ±4 ... ±19mgal accuracy depending on the local peculiarities of the free air gravity field. By taking into account the topography and its isostatic compensation with the usual remove-restore technique, the accuracy of the prediction mentioned obove was increased by about a factor of 4 and the prediction results become quite insensitive to the covariance function used (local or regional). But when predicting geoidal heights, in spite of using the smoothed field, the prediction results remain still depend on the covariance function used in such a way that differences up to about 50cm/100km result between relative geoidal heights computed with regional or local covariance functions.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号