首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   940篇
  免费   108篇
  国内免费   135篇
测绘学   323篇
大气科学   132篇
地球物理   127篇
地质学   176篇
海洋学   78篇
天文学   11篇
综合类   109篇
自然地理   227篇
  2024年   14篇
  2023年   60篇
  2022年   163篇
  2021年   179篇
  2020年   152篇
  2019年   94篇
  2018年   58篇
  2017年   59篇
  2016年   29篇
  2015年   23篇
  2014年   24篇
  2013年   53篇
  2012年   74篇
  2011年   25篇
  2010年   20篇
  2009年   17篇
  2008年   15篇
  2007年   18篇
  2006年   20篇
  2005年   13篇
  2004年   12篇
  2003年   9篇
  2002年   5篇
  2001年   11篇
  2000年   6篇
  1999年   10篇
  1998年   1篇
  1997年   6篇
  1996年   3篇
  1995年   4篇
  1994年   1篇
  1993年   1篇
  1991年   2篇
  1985年   1篇
  1984年   1篇
排序方式: 共有1183条查询结果,搜索用时 31 毫秒
1.
ABSTRACT

High performance computing is required for fast geoprocessing of geospatial big data. Using spatial domains to represent computational intensity (CIT) and domain decomposition for parallelism are prominent strategies when designing parallel geoprocessing applications. Traditional domain decomposition is limited in evaluating the computational intensity, which often results in load imbalance and poor parallel performance. From the data science perspective, machine learning from Artificial Intelligence (AI) shows promise for better CIT evaluation. This paper proposes a machine learning approach for predicting computational intensity, followed by an optimized domain decomposition, which divides the spatial domain into balanced subdivisions based on the predicted CIT to achieve better parallel performance. The approach provides a reference framework on how various machine learning methods including feature selection and model training can be used in predicting computational intensity and optimizing parallel geoprocessing against different cases. Some comparative experiments between the approach and traditional methods were performed using the two cases, DEM generation from point clouds and spatial intersection on vector data. The results not only demonstrate the advantage of the approach, but also provide hints on how traditional GIS computation can be improved by the AI machine learning.  相似文献   
2.
成矿预测:从二维到三维   总被引:1,自引:0,他引:1  
随着矿产资源勘探方法以及计算机科学技术的不断发展,成矿预测的理论和方法已从定性发展至定量,从二维拓展到三维。近十年来,随着深部矿产资源勘探工作的推进,三维成矿预测研究得到了迅猛发展,相关理论与方法也已逐步走向成熟。本文总结了国内外二维成矿预测研究的现状,同时对近十年来国内外学者在三维地质建模技术、三维成矿预测方法等方面的主要成果和进展做了系统总结和分析。目前,国内外多个地区已相继开展了三维成矿预测工作,并成功圈定多个深部找矿靶区,相关成果为深部找矿勘探工作提供了新的方法和方向。在此基础上,本文对未来三维成矿预测的发展趋势进行展望,相较于传统的二维成矿预测,三维成矿预测往往受限于三维预测信息的缺乏。如何更好的挖掘二维数据在深度方向的指示能力,将二维数据推演至三维环境,利用数值模拟、机器学习等方法开展数据挖掘、充分发挥已有数据的内蕴信息将在未来推动三维成矿预测理论的深入发展,提高三维成矿预测的理论方法及应用实践水平。  相似文献   
3.
类型丰富、时空分辨率高的海洋探测数据,为信号分解和机器学习算法的应用提供了可能。本文针对如何建立有效的海温预测模型这一问题,使用高时空分辨率的海表温度(SST)融合产品,引入信号处理领域的集合经验模态分解(EEMD)和机器学习领域的自回归积分滑动平均模型(ARIMA)。首先利用最适于分解自然信号的EEMD方法,将海温数据分解成多个确定频率的序列;再利用ARIMA分别对各个频率的序列进行预测,最后将各个序列的预测结果进行组合。该方法在丰富数据的支撑下,比以往直接使用海温数据所建立的预测模型精度更高,为更好地进行海温预测提供了新方法。  相似文献   
4.
采用传统ELM算法进行滑坡位移预测时,其网络输出权值由最小二乘估计得出,导致ELM抗差能力较差,从而造成网络训练参数不准确。为此,将M估计与ELM相结合,提出一种基于M估计的Robust-ELM滑坡变形预测方法。该方法利用加权最小二乘方法来取代最小二乘法计算ELM输出权值,以减少滑坡监测数据中粗差对ELM预测的干扰。分别以链子崖、古树屋滑坡体为例,将Robust-ELM进行了单维、多维粗差的抵御性验证。结果表明,该方法能够有效降低粗差对预测的影响,具有良好的抗差能力。  相似文献   
5.
机载LiDAR点云的分类是利用其进行城市场景三维重建的关键步骤之一。为充分利用现有的图像领域性能较好的深度学习网络模型,提高点云分类精度,并降低训练时间和对训练样本数量的要求,本文提出一种基于深度残差网络的机载LiDAR点云分类方法。首先提取归一化高程、表面变化率、强度和归一化植被指数4种具有较高区分度的点云低层次特征;然后通过设置不同的邻域大小和视角,利用所提出的点云特征图生成策略,得到多尺度和多视角点云特征图;再将点云特征图输入到预训练的深度残差网络,提取多尺度和多视角深层次特征;最后构建并训练神经网络分类器,利用训练的模型对待分类点云进行预测,经后处理得到分类结果。利用ISPRS三维语义标记竞赛的公开标准数据集进行试验,结果表明,本文方法可有效区分建筑物、地面、车辆等8类地物,分类结果的总体精度为87.1%,可为城市场景三维重建提供可靠的信息。  相似文献   
6.
新一代星载激光雷达卫星ICESat-2首次采用了微脉冲光子计数激光雷达技术,由于单光子探测的灵敏性导致数据在大气和地表下层产生了大量噪声,因此对光子计数激光雷达点云数据实现信号和噪声的分离是开展进一步应用研究的前提和基础。本文选择美国俄勒冈州和弗吉尼亚州2个研究区,采用MATLAS数据,根据光子点云数据的特点构造了12个光子点云特征,对所构造的特征利用随机森林进行变量筛选,用机器学习方法对光子点云进行分类,并将建立好的模型推广到整个研究区。研究结果表明,本文构建的分类器分类总精度达到了96.79%,Kappa系数为0.94,平均生产者精度和用户精度分别为97.1%和96.8%。在相对弱噪声、平坦地形区域和强噪声、复杂地形区域都取得较好的分类结果。本文结果显示了基于少量样本通过机器学习的方法构建模型,可以推广到较大范围区域的光子点云分类应用中。  相似文献   
7.
为解决高分辨率遥感影像变化检测中存在底层特征缺乏语义信息、像元级的检测结果存在“椒盐”现象以及监督分类中样本标注自动化程度较低,本文提出一种基于超像元词包特征和主动学习的变化检测方法。首先采用熵率分割算法获取叠加影像的超像元对象;其次提取两期影像像元点对间的邻近相关影像特征(相关度、斜率和截距)和顾及邻域的纹理变化强度特征(均值、方差、同质性和相异性),经线性组合作为像元点对的底层特征;然后基于像元点对底层特征利用BOW模型构建超像元词包特征,并采用一种改进标注策略的主动学习方法从无标记样本池中优选信息量较大的样本,且自动标注样本类别;最后训练分类器模型完成变化检测。通过选用2组不同地区的GF-2影像和Worldview-Ⅱ影像作为数据源进行实验,实验结果中2组数据集的F1分数分别为0.8714、0.8554,正确率分别为0.9148、0.9022,漏检率分别为0.1681、0.1868,误检率分别为0.0852、0.0978。结果表明,该法能有效识别变化区域、提高变化检测精度。此外,传统主动学习方法与改进标注策略的主动学习方法的学习曲线对比显示,改进的标注策略可在较低精度损失下,有效提高样本标注自动化程度。  相似文献   
8.
In this work, we tackle the challenge of quantitative estimation of reservoir dynamic property variations during a period of production, directly from four-dimensional seismic data in the amplitude domain. We employ a deep neural network to invert four-dimensional seismic amplitude maps to the simultaneous changes in pressure, water and gas saturations. The method is applied to a real field data case, where, as is common in such applications, the data measured at the wells are insufficient for properly training deep neural networks, thus, the network is trained on synthetic data. Training on synthetic data offers much freedom in designing a training dataset, therefore, it is important to understand the impact of the data distribution on the inversion results. To define the best way to construct a synthetic training dataset, we perform a study on four different approaches to populating the training set making remarks on data sizes, network generality and the impact of physics-based constraints. Using the results of a reservoir simulation model to populate our training datasets, we demonstrate the benefits of restricting training samples to fluid flow consistent combinations in the dynamic reservoir property domain. With this the network learns the physical correlations present in the training set, incorporating this information into the inference process, which allows it to make inferences on properties to which the seismic data are most uncertain. Additionally, we demonstrate the importance of applying regularization techniques such as adding noise to the synthetic data for training and show a possibility of estimating uncertainties in the inversion results by training multiple networks.  相似文献   
9.
A framework for the generation of bridge-specific fragility curves utilizing the capabilities of machine learning and stripe-based approach is presented in this paper. The proposed methodology using random forests helps to generate or update fragility curves for a new set of input parameters with less computational effort and expensive resimulation. The methodology does not place any assumptions on the demand model of various components and helps to identify the relative importance of each uncertain variable in their seismic demand model. The methodology is demonstrated through the case study of a multispan concrete bridge class in California. Geometric, material, and structural uncertainties are accounted for in the generation of bridge numerical models and their fragility curves. It is also noted that the traditional lognormality assumption on the demand model leads to unrealistic fragility estimates. Fragility results obtained by the proposed methodology can be deployed in a risk assessment platform such as HAZUS for regional loss estimation.  相似文献   
10.
刘舸  邓兴升 《测绘通报》2019,(11):69-73
提出一种基于卷积神经网络和图割法的自动提取高分影像建筑物的方法。首先,通过卷积神经网络定位与检测建筑物的位置,逐一提取单个建筑物轮廓,利用检测结果分别建立建筑物和非建筑物的高斯混合模型(GMM),然后结合最大流最小割的图像分割方式实现全局优化,完成建筑物初步提取,最后用形态学进行优化。通过试验证明了该方法的可行性。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号