共查询到20条相似文献,搜索用时 156 毫秒
1.
多元化重力场信息系统构建 总被引:1,自引:0,他引:1
基于重力测量信息化建设的目的,在对重力场信息深入分析的基础上对多元化重力场信息服务及其应用进行了研究。建立了以多元化重力场信息为基础,集数据存储、处理、分发和应用于一体的服务体系。研究结果表明,构建基于多元化重力场信息数据库的重力场信息服务系统,能够使海量重力场信息的管理更科学、使用更高效、空间分布特性表现更直观;满足了重力场研究和应用部门的数据服务要求;实现了海量重力数据获取、处理和管理的自动化;提高了工作效率。 相似文献
2.
基于重力测量信息化建设的目的,在对重力场信息深入分析的基础上对多元化重力场信息服务及其应用进行了研究.建立了以多元化重力场信息为基础,集数据存储、处理、分发和应用于一体的服务体系.研究结果表明,构建基于多元化重力场信息数据库的重力场信息服务系统,能够使海量重力场信息的管理更科学、使用更高效、空间分布特性表现更直观;满足了重力场研究和应用部门的数据服务要求;实现了海量重力数据获取、处理和管理的自动化;提高了工作效率. 相似文献
3.
4.
陆地重力精化技术是精确重力场信息、提供重力场应用保障的关键技术手段.介绍了陆地重力精化技术软件平台的设计思想和主要功能并对各部分涉及的关键技术进行了分析与阐述.软件平台由重力场数据处理、重力场数据应用与分析以及重力场数据可视化3部分组成.实现了重力观测数据的数据库管理,重力场数据处理的自动化,野外重力测量布点仿真和重力场信息的图形可视化等功能. 相似文献
5.
6.
利用最小二乘直接法反演卫星重力场模型的MPI并行算法 总被引:2,自引:0,他引:2
针对海量卫星重力数据反演高阶次地球重力场模型的密集型计算任务与高内存耗用问题,基于MPI实现了最小二乘直接法恢复高阶次位系数的并行算法。引入并行读写、分块存储与分块计算等方式完成了设计矩阵的构建、法方程的形成与求解等密集型计算任务的并行算法,数值计算结果表明三者的并行相对效率峰值可分别达到95%、68%、63%。利用GOCE轨道跟踪和径向扰动重力梯度数据(共518 400个历元)分别反演了120、240阶次地球重力场模型,计算时间仅为40 min、7 h,内存耗用峰值仅为290 MB、1.57 GB;采用与GOCE同等噪声水平的观测数据恢复的重力场模型精度与GOCE已发布模型的解算精度相一致,联合GRACE和GOCE的解算模型能够实现二者独立信息的频谱互补,表明本文方法可高效稳定地恢复高阶次地球重力场模型。 相似文献
7.
8.
9.
采用最小二乘方法解算超高阶重力场模型,不可避免会遇到大型矩阵的计算,直接求解是难以实现的。本文从重力场模型的基本观测方程出发,利用正余弦函数和面球谐因子的正交性,分析系数矩阵及法矩阵的特点,在法矩阵块对角化的基础上,利用系数矩阵求解法矩阵时“次m”递增的特点,对法矩阵求解方程进行约化、对Legendre函数的计算和存储方式进行了设计,结合缔合Legendre函数关于赤道的对称性,解决了大型矩阵存储及计算效率低下的难题,实现了超高阶重力场模型最小二乘方法的小存储、高效率的解算。通过试验模拟,改进后的方法相比传统块对角方法效率提高300倍,利用此方法可以在普通PC机上快速、高精度地解算2160阶次超高阶重力场模型,算法精度相比数值积分方法至少提高了5个数量级,并且在一定程度上可以评估原始观测数据的精度。 相似文献
10.
论高精度卫星重力场模型和厘米级区域大地水准面的确定及水文学时变重力效应 总被引:3,自引:2,他引:1
阐述了联全新一代卫星重力测量数据、卫星测高数据及全球陆地重力数据确定高精度180阶全球重力场模型、以全球重力场模型为框架参考场、利用我国地面重力数据、GPS水准资料、数值高程模型和地形密度信息确定高分辨率cm级区域大地水准面的思想。指出了一个重点发展方向:利用GRACE卫星每30天的重力位模型分析时变重力场,联系合卫星测高同时相平均海面以及水文、气候和海洋模型,分析我国黄河流域和海洋地区水储量分布和海流季节性变化,并解释与气候要素变化的相关性。 相似文献
11.
广东省基础地理信息数据库系统建设研究 总被引:2,自引:0,他引:2
广东省基础地理信息数据库是我国数据量最大、技术先进的省级基础地理信息数据库。它的建设经验、数据模型、技术架构和系统组成,特别是在多尺度、多时态、多源数据的组织,数据更新技术,以及基于数据库的标准制图技术等方面,对其他将要开展省级基础地理信息数据库建设的单位具有较大的借鉴意义。本文简要介绍了广东省基础地理信息数据库建设的内容,就系统的架构、实现的关键技术等问题进行了详细的分析和探讨。 相似文献
12.
基于GeoDatabase的多源海图数据融合研究 总被引:1,自引:0,他引:1
由于空间数据的数据来源、数据格式、数据结构的不同,需要采用一定的技术方法才能将它们合并在一起使用,这就产生了数据融合问题。本文提出了Geodatabase海图数据库的建库方案,并探讨多源矢量海图数据融合的理论和方法,结合S-57数据模型与通用的shape数据模型,我们设计一种适用于数据库结构的统一数据模型,并且对空间数据融合中的几个关键技术进行了探讨。 相似文献
13.
14.
GUO Junyi Associate Professor Laboratory for Modern Geodynamics WTUSM Wuhan China 《地球空间信息科学学报》1998,(1)
In this paper,a variational method is presented for solving theclassical gravimetric,satellite gravimetric and satellite altimetric mixed typeboudary value problem to obtain the potential coefficients.According to thisprinciple,classical gravimetric data(height measured by geometric levelling orheight triangulation),satellite gravimetric data(height measured by satellitegeodesy technique)and satellite altimetric data can be used jointly to calculate thepotential coefficients. 相似文献
15.
郭俊义 《武汉大学学报(信息科学版)》1993,(3)
本文提出了利用变分法解混合边值问题直接计算位系数的原理。根据这一原理可解第一、第二和第三边值问题的混合边值问题直接求得位系数。利用这一原理可较简单地联合利用经典重力测量(即重力点的平面位置由天文或三角测量确定,高程由水准或三角高程确定)、卫星重力测量(即利用卫星定位技术确定重力点的平面位置和大地高)以及卫星测高数据研究地球的重力场。 相似文献
16.
武汉市地理空间信息共享服务平台的建设与应用 总被引:3,自引:0,他引:3
武汉市地理空间信息共享服务平台建设是"数字武汉空间数据基础设施"建设的核心内容.该平台按照"数字城市"的理念和框架,集成了武汉市多源、多尺度、多时态的空间数据,实现了跨部门、跨平台的空间信息共享共用,为政府部门和相关行业提供在线的地理信息网络服务,在武汉市经济社会发展和和谐社会建设中得到了广泛应用. 相似文献
17.
18.
基于数据融合与地图合并技术的行政区划图更新与数字重建 总被引:1,自引:0,他引:1
行政区划图是地学研究中最为常用的空间数据.针对吉林省近年来行政区划多有变更的实际情况.吸纳地图合并技术和多源数据融合思想,利用ETM遥感数据.地形图、行政区划图等地图数据.矢量行政区划图数据,国家行政区划代码等国家标准,以及地方志等文本数据等多类型数据为数据源.更新吉林省2004年县级行政区划图矢量数据,数字重建乡镇行政区划图,所得数据精度较高.本研究旨在为相关研究提供行政区划空间数据.拓展地图合并技术和多源数据融合思想的应用领域. 相似文献
19.
A method is presented with which to verify that the computer software used to compute a gravimetric geoid is capable of producing
the correct results, assuming accurate input data. The Stokes, gravimetric terrain correction and indirect effect formulae
are integrated analytically after applying a transformation to surface spherical coordinates centred on each computation point.
These analytical results can be compared with those from geoid computation software using constant gravity data in order to
verify its integrity. Results of tests conducted with geoid computation software are presented which illustrate the need for
integration weighting factors, especially for those compartments close to the computation point.
Received: 6 February 1996 / Accepted: 19 April 1997 相似文献
20.
We propose a methodology for the combination of a gravimetric (quasi-) geoid with GNSS-levelling data in the presence of noise
with correlations and/or spatially varying noise variances. It comprises two steps: first, a gravimetric (quasi-) geoid is
computed using the available gravity data, which, in a second step, is improved using ellipsoidal heights at benchmarks provided
by GNSS once they have become available. The methodology is an alternative to the integrated processing of all available data
using least-squares techniques or least-squares collocation. Unlike the corrector-surface approach, the pursued approach guarantees
that the corrections applied to the gravimetric (quasi-) geoid are consistent with the gravity anomaly data set. The methodology
is applied to a data set comprising 109 gravimetric quasi-geoid heights, ellipsoidal heights and normal heights at benchmarks
in Switzerland. Each data set is complemented by a full noise covariance matrix. We show that when neglecting noise correlations
and/or spatially varying noise variances, errors up to 10% of the differences between geometric and gravimetric quasi-geoid
heights are introduced. This suggests that if high-quality ellipsoidal heights at benchmarks are available and are used to
compute an improved (quasi-) geoid, noise covariance matrices referring to the same datum should be used in the data processing
whenever they are available. We compare the methodology with the corrector-surface approach using various corrector surface
models. We show that the commonly used corrector surfaces fail to model the more complicated spatial patterns of differences
between geometric and gravimetric quasi-geoid heights present in the data set. More flexible parametric models such as radial
basis function approximations or minimum-curvature harmonic splines perform better. We also compare the proposed method with
generalized least-squares collocation, which comprises a deterministic trend model, a random signal component and a random
correlated noise component. Trend model parameters and signal covariance function parameters are estimated iteratively from
the data using non-linear least-squares techniques. We show that the performance of generalized least-squares collocation
is better than the performance of corrector surfaces, but the differences with respect to the proposed method are still significant. 相似文献