首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1989篇
  免费   301篇
  国内免费   350篇
测绘学   408篇
大气科学   224篇
地球物理   413篇
地质学   758篇
海洋学   179篇
天文学   17篇
综合类   238篇
自然地理   403篇
  2024年   15篇
  2023年   72篇
  2022年   205篇
  2021年   216篇
  2020年   197篇
  2019年   140篇
  2018年   98篇
  2017年   102篇
  2016年   79篇
  2015年   69篇
  2014年   86篇
  2013年   125篇
  2012年   137篇
  2011年   82篇
  2010年   93篇
  2009年   98篇
  2008年   70篇
  2007年   88篇
  2006年   89篇
  2005年   55篇
  2004年   67篇
  2003年   52篇
  2002年   63篇
  2001年   66篇
  2000年   37篇
  1999年   49篇
  1998年   23篇
  1997年   22篇
  1996年   24篇
  1995年   28篇
  1994年   20篇
  1993年   9篇
  1992年   12篇
  1991年   12篇
  1990年   6篇
  1989年   8篇
  1988年   3篇
  1987年   2篇
  1986年   5篇
  1985年   4篇
  1984年   4篇
  1983年   2篇
  1982年   3篇
  1979年   1篇
  1976年   1篇
  1954年   1篇
排序方式: 共有2640条查询结果,搜索用时 15 毫秒
1.
杨鑫  彭飞  张琦琦  胡伟 《世界地理研究》2020,29(6):1102-1112
全球化背景下对外贸易活动是特定地域外向联系强度的重要表现,是边境城市区域功能的重要组成部分。运用位序-规模法则、分形理论及核密度等方法,以中国边境各城市的进出口贸易额为主要指标,剖析了中国边境地区对外贸易的规模分布特征及其影响因素。结果发现:①不同阶段的中国边境对外贸易位序-规模特征明显,位序结构内部城市次序变化较大;②位序-规模分布的无标度区变化显著,在18年内出现了4段分形表现,外贸活动的规模波动性、区域化特征明显;③影响因素表现为经济地理禀赋约束下核心城市支配效应明显、邻接地缘环境影响显著、政策导向与口岸推动、内部竞争反推空间结构协调演化四个方面;④不平衡性、集聚性在中国边境地区外贸活动中凸显,空间分布呈现为“核心-边缘”结构,当前国家层级应重点支持对外贸易优势城市,省级尺度协调域内城市对外贸易层次组织与区间联系。  相似文献   
2.
ABSTRACT

High performance computing is required for fast geoprocessing of geospatial big data. Using spatial domains to represent computational intensity (CIT) and domain decomposition for parallelism are prominent strategies when designing parallel geoprocessing applications. Traditional domain decomposition is limited in evaluating the computational intensity, which often results in load imbalance and poor parallel performance. From the data science perspective, machine learning from Artificial Intelligence (AI) shows promise for better CIT evaluation. This paper proposes a machine learning approach for predicting computational intensity, followed by an optimized domain decomposition, which divides the spatial domain into balanced subdivisions based on the predicted CIT to achieve better parallel performance. The approach provides a reference framework on how various machine learning methods including feature selection and model training can be used in predicting computational intensity and optimizing parallel geoprocessing against different cases. Some comparative experiments between the approach and traditional methods were performed using the two cases, DEM generation from point clouds and spatial intersection on vector data. The results not only demonstrate the advantage of the approach, but also provide hints on how traditional GIS computation can be improved by the AI machine learning.  相似文献   
3.
4.
类型丰富、时空分辨率高的海洋探测数据,为信号分解和机器学习算法的应用提供了可能。本文针对如何建立有效的海温预测模型这一问题,使用高时空分辨率的海表温度(SST)融合产品,引入信号处理领域的集合经验模态分解(EEMD)和机器学习领域的自回归积分滑动平均模型(ARIMA)。首先利用最适于分解自然信号的EEMD方法,将海温数据分解成多个确定频率的序列;再利用ARIMA分别对各个频率的序列进行预测,最后将各个序列的预测结果进行组合。该方法在丰富数据的支撑下,比以往直接使用海温数据所建立的预测模型精度更高,为更好地进行海温预测提供了新方法。  相似文献   
5.
采用传统ELM算法进行滑坡位移预测时,其网络输出权值由最小二乘估计得出,导致ELM抗差能力较差,从而造成网络训练参数不准确。为此,将M估计与ELM相结合,提出一种基于M估计的Robust-ELM滑坡变形预测方法。该方法利用加权最小二乘方法来取代最小二乘法计算ELM输出权值,以减少滑坡监测数据中粗差对ELM预测的干扰。分别以链子崖、古树屋滑坡体为例,将Robust-ELM进行了单维、多维粗差的抵御性验证。结果表明,该方法能够有效降低粗差对预测的影响,具有良好的抗差能力。  相似文献   
6.
机载LiDAR点云的分类是利用其进行城市场景三维重建的关键步骤之一。为充分利用现有的图像领域性能较好的深度学习网络模型,提高点云分类精度,并降低训练时间和对训练样本数量的要求,本文提出一种基于深度残差网络的机载LiDAR点云分类方法。首先提取归一化高程、表面变化率、强度和归一化植被指数4种具有较高区分度的点云低层次特征;然后通过设置不同的邻域大小和视角,利用所提出的点云特征图生成策略,得到多尺度和多视角点云特征图;再将点云特征图输入到预训练的深度残差网络,提取多尺度和多视角深层次特征;最后构建并训练神经网络分类器,利用训练的模型对待分类点云进行预测,经后处理得到分类结果。利用ISPRS三维语义标记竞赛的公开标准数据集进行试验,结果表明,本文方法可有效区分建筑物、地面、车辆等8类地物,分类结果的总体精度为87.1%,可为城市场景三维重建提供可靠的信息。  相似文献   
7.
新一代星载激光雷达卫星ICESat-2首次采用了微脉冲光子计数激光雷达技术,由于单光子探测的灵敏性导致数据在大气和地表下层产生了大量噪声,因此对光子计数激光雷达点云数据实现信号和噪声的分离是开展进一步应用研究的前提和基础。本文选择美国俄勒冈州和弗吉尼亚州2个研究区,采用MATLAS数据,根据光子点云数据的特点构造了12个光子点云特征,对所构造的特征利用随机森林进行变量筛选,用机器学习方法对光子点云进行分类,并将建立好的模型推广到整个研究区。研究结果表明,本文构建的分类器分类总精度达到了96.79%,Kappa系数为0.94,平均生产者精度和用户精度分别为97.1%和96.8%。在相对弱噪声、平坦地形区域和强噪声、复杂地形区域都取得较好的分类结果。本文结果显示了基于少量样本通过机器学习的方法构建模型,可以推广到较大范围区域的光子点云分类应用中。  相似文献   
8.
为解决高分辨率遥感影像变化检测中存在底层特征缺乏语义信息、像元级的检测结果存在“椒盐”现象以及监督分类中样本标注自动化程度较低,本文提出一种基于超像元词包特征和主动学习的变化检测方法。首先采用熵率分割算法获取叠加影像的超像元对象;其次提取两期影像像元点对间的邻近相关影像特征(相关度、斜率和截距)和顾及邻域的纹理变化强度特征(均值、方差、同质性和相异性),经线性组合作为像元点对的底层特征;然后基于像元点对底层特征利用BOW模型构建超像元词包特征,并采用一种改进标注策略的主动学习方法从无标记样本池中优选信息量较大的样本,且自动标注样本类别;最后训练分类器模型完成变化检测。通过选用2组不同地区的GF-2影像和Worldview-Ⅱ影像作为数据源进行实验,实验结果中2组数据集的F1分数分别为0.8714、0.8554,正确率分别为0.9148、0.9022,漏检率分别为0.1681、0.1868,误检率分别为0.0852、0.0978。结果表明,该法能有效识别变化区域、提高变化检测精度。此外,传统主动学习方法与改进标注策略的主动学习方法的学习曲线对比显示,改进的标注策略可在较低精度损失下,有效提高样本标注自动化程度。  相似文献   
9.
In this work, we tackle the challenge of quantitative estimation of reservoir dynamic property variations during a period of production, directly from four-dimensional seismic data in the amplitude domain. We employ a deep neural network to invert four-dimensional seismic amplitude maps to the simultaneous changes in pressure, water and gas saturations. The method is applied to a real field data case, where, as is common in such applications, the data measured at the wells are insufficient for properly training deep neural networks, thus, the network is trained on synthetic data. Training on synthetic data offers much freedom in designing a training dataset, therefore, it is important to understand the impact of the data distribution on the inversion results. To define the best way to construct a synthetic training dataset, we perform a study on four different approaches to populating the training set making remarks on data sizes, network generality and the impact of physics-based constraints. Using the results of a reservoir simulation model to populate our training datasets, we demonstrate the benefits of restricting training samples to fluid flow consistent combinations in the dynamic reservoir property domain. With this the network learns the physical correlations present in the training set, incorporating this information into the inference process, which allows it to make inferences on properties to which the seismic data are most uncertain. Additionally, we demonstrate the importance of applying regularization techniques such as adding noise to the synthetic data for training and show a possibility of estimating uncertainties in the inversion results by training multiple networks.  相似文献   
10.
A framework for the generation of bridge-specific fragility curves utilizing the capabilities of machine learning and stripe-based approach is presented in this paper. The proposed methodology using random forests helps to generate or update fragility curves for a new set of input parameters with less computational effort and expensive resimulation. The methodology does not place any assumptions on the demand model of various components and helps to identify the relative importance of each uncertain variable in their seismic demand model. The methodology is demonstrated through the case study of a multispan concrete bridge class in California. Geometric, material, and structural uncertainties are accounted for in the generation of bridge numerical models and their fragility curves. It is also noted that the traditional lognormality assumption on the demand model leads to unrealistic fragility estimates. Fragility results obtained by the proposed methodology can be deployed in a risk assessment platform such as HAZUS for regional loss estimation.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号