首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 513 毫秒
1.
重力和重力梯度数据联合聚焦反演方法   总被引:8,自引:5,他引:3       下载免费PDF全文
重力数据包含较多的低频信息,重力梯度数据包含较多的高频信息,将重力数据和重力梯度数据进行联合反演得到的结果更加可信.本文基于聚焦反演方法,实现了这一过程.因为联合反演中分量种类增加,所以计算灵敏度矩阵所需要的时间增加,为此,本文提出了一种快速计算灵敏度矩阵的方法.因为联合反演对内存的要求增大,本文选择有限内存BFGS拟牛顿法求解反演问题.本文通过再加权的方法实现深度加权.文中利用单一分量的反演结果来预测异常体的埋深信息,随后将埋深信息结合到深度加权函数中,将其用于多分量组合反演计算.给出了模型试验,发现预测得到的异常体的埋深信息与其实际埋深存在偏差,但是将这一信息应用到反演计算,能够得到与真实模型一致的结果.之后,本文通过模型试验来探究重力和重力梯度联合反演的优势,发现将重力和重力梯度数据联合,能够识别出额外的噪声,反演得到的模型更加合理.但是,对于不同分量组合得到的反演结果是相近的,反演模型的提高很小.最后,将联合反演方法应用到美国路易斯安那州Vinton岩丘的实际数据中,结果显示,将重力和重力梯度数据联合反演,反演模型得到了提高,反演得到的结果与地质资料吻合.  相似文献   

2.
重力梯度全张量数据三维共轭梯度聚焦反演   总被引:2,自引:0,他引:2  
随着全张量重力梯度测量技术的日趋成熟和应用领域的不断扩大,重力梯度全张量数据的三维反演技术越来越受重视.本文利用剖分单元之间几何架构等效性,实现了重力梯度全张量场三维正演快速计算和导数矩阵优化存储.并将积分灵敏度、粗糙度和最小支撑泛函约束以及参考模型和模型参数界限约束引入到目标函数中,采用共轭梯度法进行反演迭代,实现了重力梯度全张量数据三维快速正反演计算.多种模型的反演试算表明:本文提出的反演算法的可靠性和稳定性较好,并且算法速度快、占用内存低且易于并行化.  相似文献   

3.
基于共轭梯度算法对欠定线性目标函数进行求解。 为改善目标函数的多解性、 消除多余构造信息影响, 引入粗糙度系数矩阵; 为克服“趋肤效应”, 更好地反映地质体的真实形态, 在模型目标函数中引入深度加权函数; 为更好的反映地质体的某些尖锐构造和边界, 本文对目标函数添加了基于最小支撑泛函的聚焦反演约束。 通过对多种模型的计算, 验证了该方法具有较好的有效性和稳定性, 并将该方法应用于实际重力资料地下密度反演中去, 得到了较好的反演结果。  相似文献   

4.
重力梯度数据相对于传统重力数据,能够更细致、准确地描述地球浅部构造和研究矿产资源分布等信息.本文采用共轭梯度算法,在加权密度域求解重力梯度数据三维聚焦反演最优化问题,以恢复地下三维密度分布,目标函数包括数据不拟合函数和最小支撑稳定函数.首先,在推导目标函数对加权密度的一阶导数时,为了得到更合理的计算公式,我们考虑变加权函数中含有密度变量;此外,本文通过密度上下限约束,改善了传统聚焦反演中聚焦因子选取困难的问题.新算法获得的反演结果,对聚焦因子的选择约束较少,相比传统聚焦算法,能够更容易的获得理想结果.将方法应用于理论模型验证其有效性和正确性,并应用本文方法处理文顿盐丘地区的航空全张量重力梯度数据,得到了与已知地质信息匹配的密度分布,表明本文方法具有处理实际数据的能力.  相似文献   

5.
预条件共轭梯度法在地震数据重建方法中的应用   总被引:1,自引:1,他引:0       下载免费PDF全文
基于最小平方的Fourier地震数据重建方法最终转化为求解一个线性方程组, 其系数矩阵是Toeplitz矩阵,可以用共轭梯度法求解该线性方程组.共轭梯度法的迭代次数受系数矩阵病态程度的影响,地震数据的非规则采样程度越高,所形成的系数矩阵病态程度越高,就越难收敛和得到合理的计算结果.本文研究了基于Toeplitz矩阵的不同预条件的构造方法,以及对共轭梯度法收敛性的影响.通过预条件的使用,加快了共轭梯度法的迭代速度, 改进了共轭梯度算法的收敛性,提高了计算的效率.数值算例和实际地震数据重建试验证明了预条件共轭梯度法对计算效率有很大的提高.  相似文献   

6.
重力梯度反演中,了解重力梯度各分量在反演中发挥的作用,从而选择合适的分量组合非常重要。基于前人对重力梯度各分量的信息特征的研究,本文提出了一种重加权反演方法来评价单一重力梯度分量对反演结果分辨率的影响。这种方法仅用到了正则化方程中的拟合函数,并引入深度加权函数克服重力梯度反演中的"趋肤效应"。本文对比了不同的反演结果,验证了深度加权函数对反演结果的影响。基于避免引入先验信息这一前提,文中选择灵敏度矩阵构建的深度加权函数。基于单一长方体模型和复杂模型试验的反演结果表明不同分量对反演结果分辨率的影响在不同方向存在差异。此外,在两种模型数据中加入不同水平的随机噪声,得出结果与无噪声模型反演结果基本一致。最后,本文方法在美国路易斯安娜州文顿盐丘的实际数据得到了应用。  相似文献   

7.
重力数据的密度界面反演是位场数据解释中的一项主要工作,在区域构造演化、深部莫霍面确定等领域的研究中发挥重要作用.近年来,数据驱动的深度学习方法广泛地应用在地球物理数据处理与反演中,本文提出一种基于深度学习U-net网络的重力数据密度界面反演方法.首先,对半椭球体界面模型进行随机抽取和组合进而形成地下起伏界面数据集,并基于Parker正演理论对界面数据集进行重力异常正演计算,为深度学习网络模型的训练提供特征完备的数据源;其次,设计了基于U-net网络模型的深度学习界面反演算法,在传统的损失函数基础上增加光滑损失项和过拟合抑制项,提高重力界面反演结果的光滑性和收敛效率;最后通过测试样本集进行反演预测,验证建立深度学习网络模型的泛化性.本文通过理论模型和实际数据试验分析了本文方法在密度界面反演中的有效性和实用性,基于改进损失函数约束的深度学习界面反演方法有效地提高了密度界面反演的收敛效率和计算稳定性.  相似文献   

8.
本文基于重力梯度张量密度反演基本理论,建立了模型约束正则化密度反演矩阵方程.分析了代数重构算法(ART)中迭代初始值、松弛因子和终止条件三个关键参数的影响;与最小二乘求逆法对应比较分析了算法的时间和精度.结果表明:在地震、地质等地球物理手段提供初值、边界等约束较多的情况下,ART可以克服方程的不适定进行直接求解,并且合理的松弛因子和终止条件可有效提高反演效率.当初始信息不足时,添加光滑假设、深度加权等模型约束,正则化方程可以提高反演结果的可靠性.ART的行迭代可有效避免观测误差的积累和矩阵求逆的计算,从而使计算精度和速度提高数倍.最后基于GOCE地球重力场模型所得重力梯度,以地震层析成像所得速度模型为约束,对华北克拉通密度结构进行了反演,并与该区已有密度研究结果进行了对比.结果表明:利用GOCE重力场系数计算重力梯度扰动,以速度模型为约束,基于代数重构算法进行重力梯度反演所得密度模型与重力-地震联合反演所得密度模型具有很好的对应性.ART算法为重力梯度张量反演中大规模复杂问题的快速计算提供了又一种有效手段.  相似文献   

9.
重力数据的物性反演面临着严重的多解性问题,降低多解性的有效手段是加入约束条件.而边界识别、深度估计及成像方法可获取地质体的水平位置、深度范围等几何参数信息,本文将基于数据本身挖掘的地质体几何参数信息约束到物性反演中,以降低反演的多解性.通过引入基于深度信息的深度加权函数及基于水平位置的水平梯度加权函数建立优化约束条件,有效地提高了反演结果的横向及纵向分辨率.重力梯度数据包含更多的地质体空间特征信息,将优化约束反演方法应用到全张量数据的反演中,模型试验表明本文方法反演结果与理论模型更加吻合.最后对美国路易斯安那州文顿盐丘实测航空重力梯度数据的应用表明,本文方法在其他地球物理、地质资料不足的情况下获得更可靠的反演结果.  相似文献   

10.
随着全张量重力梯度(FTG)测量技术的不断发展,重力梯度数据的三维反演技术在油气和矿产勘探中日益受到重视与关注。为了快速处理和解释大规模的高精度数据,图形处理器GPU(Graphics Processing Unit)和预处理分解技术(Preconditioning methods)在地球物理反演中的使用变得十分重要。本文结合对称逐次超松弛(SSOR)技术与不完全乔列斯基分解共轭梯度算法(ICCG)提出改进的预处理共轭梯度法,并考虑到方法预处理分解占用额外的时间,开发该算法的GPU并行算法来提高加速效果。然后通过含噪的模型数据反演来证明改进的并行预处理方法在三维全张量重力梯度数据反演中的适应性。由此,基于NVIDIATesla C2050 GPU的并行SSOR-ICCG算法和在2.0GHz CPU上的串行程序比较,达到了大约25倍的加速比。最后,我们将该算法应用于美国路易斯安那州南方Vinton盐丘的实测航空重力梯度数据反演中,反演出良好的反演结果,验证了该方法在三维全张量重力梯度数据快速反演中的优势和可行性。  相似文献   

11.
常规协克里金方法反演重力或重力梯度数据具有抗噪性好、加入先验信息容易等优点,其反演的地下密度分布能够识别异常体中心位置,还原异常体基本形态,但反演图像光滑,分辨率低,这是由于常规方法估计的密度协方差矩阵全局发散、平稳.为了通过协克里金方法获得聚焦的密度分布需要改善密度协方差矩阵的性质.首先,本文推导了理论密度协方差公式,其性质表明,当理论模型聚焦分布时,其密度协方差矩阵是非平稳且聚焦分布的.为了打破常规协方差矩阵全局平稳、发散的特征,本文设置密度阈值处理协方差矩阵,通过不断更新协方差矩阵来迭代实现协克里金反演,最终得到相对聚焦的反演结果.用本文方法处理重力与重力梯度数据恢复两种密度模型,均得到了与正演模型匹配的反演结果;再将方法运用于文顿盐丘的实际测量重力与重力梯度数据,反演结果与已知的地质情况匹配较好.  相似文献   

12.
基于深度学习的重力异常与重力梯度异常联合反演   总被引:1,自引:0,他引:1  
高效高精度的反演算法在重力大数据时代背景下显得尤为重要,受深度学习卓越的非线性映射能力的启发,本文提出了一种基于深度学习的重力异常及重力梯度异常的联合反演方法.文中首先提出了一种基于网格点几何格架的重力异常及重力梯度异常的空间域快速正演算法,这为本文深度学习反演算法的实现奠定了基础;其次对大量的不同密度模型进行正演计算获得样本数据集;然后设计了一种端到端的深度学习网络结构(GraInvNet),再利用样本数据对该网络结构进行训练;最后进行反演预测.组合模型试验表明,多维度数据联合反演相比单一分量反演其结果更“聚焦”,且与模型边界高度吻合,并且对于复杂模型的姿态与物性预测具有极为显著的优势,以及对于含噪声数据的反演,其质量也不会降低;Vinton岩丘实测重力数据也验证了文中方法的有效性;从而证明了深度学习在重力数据的高效高精度反演方面具有的巨大潜力.  相似文献   

13.
通过研究重力数据三维反演解的病态性,利用基于拉格朗日插值方法的Extrapolation Tikhonov正则化方法来解决反演中解的不唯一性和不稳定性问题,该方法最大限度的减少了因正则化参数的引入而在反演结果中介入的误差,同时详细讨论了基于三种选择原则的正则化双参数的具体选择方法,模型试算结果表明,与原Tikhonov方法相比,该方法提高了反演的拟合精度.其次,为了消除核函数随深度增加而快速衰减对反演结果的影响,本文改进了前人的重力数据三维反演深度加权函数,改进后的加权函数与原函数相比能更好的识别异常体底部密度分布特征,对于埋深较深的异常体具有较好的识别效果,更好的解决了由近地面趋肤效应作用引起的密度分布不均的问题.同时,利用上下限约束函数限制每一个立方体的密度差范围,并应用于多组人工合成模型.结果表明:该反演方法能准确地获得正演模型的预设参数范围和位置.  相似文献   

14.
利用NVIDIA CUDA编程平台,实现了基于GPU并行的重力、重力梯度三维快速正演计算方法.采用当前在重力数据约束反演或联合反演中流行的物性模型(密度大小不同、规则排列的长方体单元)作为地下剖分单元,对任意三维复杂模型体均可用很多物性模型进行组合近似,利用解析方法计算出所有物性模型在计算点的异常值并累加求和,得到整个模型体在某一计算点引起的重力(或重力梯度)值.针对精细的复杂模型体产生的问题,采用GPU并行计算技术,主要包括线程有效索引与优化的并行归约技术进行高效计算.在显卡型号为NVIDIA Quadro 2000相对于单线程CPU程序,重力和重力梯度Uxx、Uxy正演计算可以分别达到60与50倍的加速.本文还讨论了GPU并行计算在两种反演方法中的策略,为快速三维反演技术提供了借鉴.  相似文献   

15.
The ‘depth from extreme points’ method is an important tool to estimate the depth of sources of gravity and magnetic data. In order to interpret gravity gradient tensor data conveniently, formulas for the tensor data form regarding depth from the extreme points method were calculated in this paper. Then, all of the gradient tensor components were directly used to interpret the causative source. Beyond the gzz component, also the gxx and gyy components can be used to obtain depth information. In addition, the total horizontal derivative of the depth from extreme points of the gradient tensor can be used to describe the edge information of geologic sources. In this paper, we investigated the consistency of the homogeneity degree calculated by using the different components, which leads to the calculated depth being confirmed. Therefore, a more integrated interpretation can be obtained by using the gradient tensor components. Different synthetic models were used with and without noise to test the new approach, showing stability, accuracy and speed. The proposed method proved to be a useful tool for gradient tensor data interpretation. Finally, the proposed method was applied to full tensor gradient data acquired over the Vinton Salt Dome, Louisiana, USA, and the results are in agreement with those obtained in previous research studies.  相似文献   

16.
应用全张量重力梯度数据优化密度和速度模型   总被引:1,自引:0,他引:1       下载免费PDF全文
重力梯度全张量数据具有高灵敏度反映探测目标局部微弱变化的特点,可以对单一地震数据在建立速度模型过程中的不确定性,尤其是各向异性速度模型建立过程中的精细结构进行补充修正.本文主要研究重震两类数据与各自所反映的物理模型关系以及密度模型与速度模型之间的相互联系和制约关系,从而建立重力全张量数据与地震速度模型间的信息互补关系和模型参数间的解析表达式.在此基础上,提出多参数加权正反演算法流程,逐层异常分离技术和约束条件下迭代反演模型修正方法,并实现模块编程和验证.实验数据和结果表明,重力全张量数据和地震数据多参数融合能够明显提高地震速度建模精度,减小模型解释的不确定性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号