首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1959篇
  免费   382篇
  国内免费   242篇
测绘学   513篇
大气科学   157篇
地球物理   734篇
地质学   618篇
海洋学   210篇
天文学   60篇
综合类   171篇
自然地理   120篇
  2024年   2篇
  2023年   10篇
  2022年   38篇
  2021年   48篇
  2020年   65篇
  2019年   63篇
  2018年   47篇
  2017年   76篇
  2016年   72篇
  2015年   88篇
  2014年   100篇
  2013年   106篇
  2012年   114篇
  2011年   143篇
  2010年   115篇
  2009年   147篇
  2008年   173篇
  2007年   184篇
  2006年   155篇
  2005年   131篇
  2004年   108篇
  2003年   103篇
  2002年   72篇
  2001年   60篇
  2000年   62篇
  1999年   40篇
  1998年   38篇
  1997年   48篇
  1996年   34篇
  1995年   19篇
  1994年   19篇
  1993年   25篇
  1992年   18篇
  1991年   9篇
  1990年   7篇
  1989年   11篇
  1988年   7篇
  1987年   8篇
  1986年   5篇
  1985年   3篇
  1984年   2篇
  1983年   2篇
  1982年   1篇
  1977年   1篇
  1954年   4篇
排序方式: 共有2583条查询结果,搜索用时 15 毫秒
991.
Seismic field data are often irregularly or coarsely sampled in space due to acquisition limits. However, complete and regular data need to be acquired in most conventional seismic processing and imaging algorithms. We have developed a fast joint curvelet‐domain seismic data reconstruction method by sparsity‐promoting inversion based on compressive sensing. We have made an attempt to seek a sparse representation of incomplete seismic data by curvelet coefficients and solve sparsity‐promoting problems through an iterative thresholding process to reconstruct the missing data. In conventional iterative thresholding algorithms, the updated reconstruction result of each iteration is obtained by adding the gradient to the previous result and thresholding it. The algorithm is stable and accurate but always requires sufficient iterations. The linearised Bregman method can accelerate the convergence by replacing the previous result with that before thresholding, thus promoting the effective coefficients added to the result. The method is faster than conventional one, but it can cause artefacts near the missing traces while reconstructing small‐amplitude coefficients because some coefficients in the unthresholded results wrongly represent the residual of the data. The key process in the joint curvelet‐domain reconstruction method is that we use both the previous results of the conventional method and the linearised Bregman method to stabilise the reconstruction quality and accelerate the recovery for a while. The acceleration rate is controlled through weighting to adjust the contribution of the acceleration term and the stable term. A fierce acceleration could be performed for the recovery of comparatively small gaps, whereas a mild acceleration is more appropriate when the incomplete data has a large gap of high‐amplitude events. Finally, we carry out a fast and stable recovery using the trade‐off algorithm. Synthetic and field data tests verified that the joint curvelet‐domain reconstruction method can effectively and quickly reconstruct seismic data with missing traces.  相似文献   
992.
The relation in which the vertical and horizontal gradients of potential field data measured along a profile across a two‐dimensional source are a Hilbert transform pair is re‐established using complex domain mathematics. In addition, a relation between the measured field and its vertical gradient in terms of a closed‐form formula is also established. The formula is based on hypersingular or Hadamard's finite‐part integral. To estimate the vertical gradient directly from the field data, Linz's algorithm of computing Hadamard's finite‐part integral is implemented. Numerical experiments are conducted on synthetically generated total magnetic intensity data with a mild level of noise contamination. A model of a magnetically polarised vertical thin sheet buried at a finite depth within a non‐magnetic half‐space was considered in generating the synthetic response. The results from numerical experiments on the mildly noise‐contaminated synthetic response are compared with those from using classical Fourier and robust regularised Hilbert transform‐based techniques.  相似文献   
993.
希尔伯特—黄变换用于处理非线性非平稳信号,由经验模态分解和希尔伯特谱分析2部分组成。本文采用希尔伯特—黄变换方法,相继对大同地震台地电阻率月值数据和宝昌地震台地电阻率月值、整点值数据进行处理。结果显示:(1)大同、宝昌地震台地电阻率月值数据对应的Hilbert谱具有较高分辨率,高幅值在归一化频率0.05—0.15区间内呈"余弦"变化形态;(2)希尔伯特—黄变换在提取地电阻率异常变化、高频信息及去除噪声等方面效果较好,在未来地电资料处理中具有广泛的应用前景。  相似文献   
994.
Mallat算法在数字地震信号压缩中的应用   总被引:1,自引:1,他引:0  
地震台站多、数据采集量大,日产出数据量庞大,研究数字地震信号的压缩方法成为行业热门课题。尝试将Mallat算法应用于数字地震波形数据压缩。选取不同的小波分解函数,对不同类型的数字地震信号进行3—5层的小波分解,将得到的小波系数进行分层硬阈值重构运算,对原始信号和处理信号进行压缩。分析可知,Mallat算法压缩比更高,与原始信号相比,重构信号不失真、能量保留系数高。  相似文献   
995.
多次波的存在会降低地震资料的信噪比,影响地震资料处理效果和后续的地质解释精度,压制多次波干扰是地震资料处理中的一个重要环节。利用有限差分方法正演模拟几个典型地质模型的地震波场,之后进行动校正,再通过抛物线Radon变换方法把t-x域一次反射波和多次波变换到τ-q域,由于存在速度的差异,Radon域记录中的一次反射波和多次波的能量互相分开,在Radon域对多次波的能量切除,保留反射波的有效信息,达到压制多次波的效果,提高资料的信噪比。通过对实际地震数据进行抛物线Radon变换结果也进一步验证了该方法在压制多次波中的应用效果。   相似文献   
996.
基于10 a以上的全球GPS台站数据,利用主成分分析法及其他数据处理方法,对台站时间序列进行预处理和结果分析,研究其中的非线性周期规律,探讨时间序列的主要影响机制。结果表明,主成分分析法可以将台站残差时空矩阵分解成若干正交成分,GPS台站时间序列的东西方向具有线性漂移趋势,全球大部分GPS台站都存在非线性周期规律,周年项和半周年周期占据主导地位。  相似文献   
997.
利用相关分析、回归分析和交叉小波变换等方法,研究青岛台短周期(小于128 min)气压波和体应变的相关系数、气压系数和时频谱。结果表明,影响青岛台体应变的短周期气压波的优势周期为16~128 min。周期小于16 min(高频段)时,相关系数较小,随周期增大而增大;周期大于16 min(低频段)时,相关系数较大,趋于稳定。在相关系数较大且稳定的周期,气压系数为(3.5~3.6)×10-9/hPa,其中周期为16~64 min的气压系数随时间波动最小。交叉小波变换能更细致地揭示不同周期气压波和体应变在时频域的相关关系。  相似文献   
998.
波形去噪是大光斑星载激光雷达数据处理和应用结果可靠性的重要保障。针对ICESat-GLAS回波波形中的噪声问题,构建一种自适应阈值的级联离散小波变换的方法,可实现对地球科学激光测高系统(GLAS)回波信号的去噪处理,该方法既能够使高频信号得到再分解,又降低小波包变换去噪的复杂度。通过与传统的小波噪声阈值去噪等方法的对比分析,可以发现:在同样的小波分解层次下,文中构建的方法要优于传统的小波噪声阈值法,有助于ICESat-GLAS大光斑激光雷达波形数据去噪处理。  相似文献   
999.
魏嘉磊 《北京测绘》2019,33(1):49-53
本文基于SIFT算法进行无人机高分影像自动特征点匹配,在实现影像特征点自动匹配的基础上采用二次多项式模型进行影像几何配准,并且重点考察影像配准过程中匹配特征点数目对几何配准精度的影响,最后进行精度评价。结果表明:在影像特征点匹配结果正确、匹配点分布合理的情况下,匹配点数目越多,利用二次多项式进行影像几何配准的精度越高;无人机航向方向影像配准残差大于旁向残差。  相似文献   
1000.
拖缆采集的海上多道地震数据受海水间传播的多次波影响,往往在共炮点道集上发育周期性的强振幅干扰波,这些噪音会掩盖海底以下及强反射层以下地层的面貌,严重影响多道地震数据的成像效果。为了消除海上多道地震数据中存在的海水间传播的多次波对地震数据的干扰,首先分析浅水多次波在海水间多次震荡的产生机制,采用了τ-P域静校正延迟技术对其进行压制,处理的核心是在τ-P域对周期性多次波模型进行预测,再通过自适应相减以去除地震数据中的多次波。实际资料处理结果表明,方法对海水间震荡的浅水多次波具有很好的压制效果,经过浅水多次波去除后的叠加剖面信噪比得到有效提高,剖面的品质得以提升。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号