首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 212 毫秒
1.
把空间矢量数据的压缩方法道格拉斯-普克法引入到断面数据的抽稀处理中,并对算法进行改进。首先按照一定算法进行整条断面线的粗滤处理,找出地形特征点、平面转折点、地物点等作为关键点,然后依据关键点对断面线进行分段,在段内使用道格拉斯-普克法进行细滤。通过实验能有效地抽稀断面点。  相似文献   

2.
本文把空间矢量数据的压缩算法道格拉斯-普克法引入到管线断面数据的抽稀处理中,并对算法进行改进。首先按照一定算法进行整条断面线的粗滤处理,找出地形特征点、平面转折点、地物点等作为关键点,然后依据关键点对断面线进行分段,在段内使用道格拉斯-普克法进行细滤。最后通过实验验证了这种算法能够很好地压缩管线断面点数据,满足管线设计的要求。  相似文献   

3.
面向自然岸线抽稀的改进道格拉斯—普克算法   总被引:2,自引:1,他引:1  
于靖  陈刚  张笑  陈文龙 《测绘科学》2015,40(4):23-27,33
针对已有的矢量数据压缩算法应用于方向线生成过程中会忽略国家海疆权益的问题,该文提出了一种面向自然岸线抽稀生成方向线的改进道格拉斯-普克算法。首先提取自然岸线凸点作为备选分段点集,进而根据凸点与相邻两点组成的三角形面积大小筛选分段点,接着利用相邻分段点作为道格拉斯-普克算法的首尾点,以基于最小二乘法的拟合曲线选定最优距离阈值,并作为初始阈值,进行逐段抽稀。实验结果表明,利用本算法抽稀所得面积比、压缩率均比传统道格拉斯-普克算法有所提升,且大部分情况下误差面积也有所减少。  相似文献   

4.
在地理信息数据生产及建库过程中往往遇到线、面要素结点稠密冗余,影响了GIS的数据质量。因此需要在保证数据一定精度的情况下进行抽稀处理,并兼顾拓扑关系正确。经典道格拉斯-普克算法对具有公共边的线、面要素抽稀会产生边裂缝的拓扑错误,因此通过研究道格拉斯-普克经典算法的基本原理,获得问题产生的具体原因。据此,在研究分析相关改进算法的基础上,提出了一种基于公共边处理的改进道格拉斯-普克算法。通过ObjectArx编程在AUTOCAD中实现了该算法,能够高效解决海量抽稀和公共边拓扑问题,达到了预期的效果,对GIS数据应用质量提升具有重要意义。  相似文献   

5.
本文在道格拉斯-普克法的基础上提出利用逐点前进法对点云数据进行精简,以兔子的模型为对象进行试验研究。结果表明,逐点前进法对点云数据精简在速度和精简率上与道格拉斯-普克法相比有明显提高。  相似文献   

6.
多波束测深数据具有海量特性,在使用过程中常需对其进行抽稀处理。针对现有抽稀算法的结果无法兼顾舰船航行安全与海底地形真实表达的问题,提出一种新的多波束测深数据抽稀算法。在根据海底地形复杂程度的不同实现地形复杂程度分类的基础上,针对平坦、一般和复杂3类不同复杂程度的地形区域提出不同的抽稀策略,使得抽稀过程顾及航行安全"取浅"原则的同时能够保留海底真实地形特征。与常用抽稀算法网格最浅点法和不规则三角网法进行对比实验,结果表明:本文算法抽稀结果在海底地形表达真实性上明显优于网格最浅点法,同时能够避免不规则三角网法抽稀时可能出现数据空白区域的问题,抽稀结果能够满足后期海图制图和海底地形构建的数据需求。  相似文献   

7.
制图综合中偏角限制道格拉斯算法研究   总被引:1,自引:0,他引:1  
提出了一种矢量数据压缩方法:偏角限制道格拉斯———普克法。该方法以道格拉斯———普克法为基础,通过角度测定的方法,取出代表曲率变化的特征点,然后使用道格拉斯———普克法进行化简。在所需要化简的曲线曲率变化频繁的情况下,该方法可以规避其他压缩方法产生的压缩程度不够、丢失曲率变化特征点的情况。  相似文献   

8.
针对现有的算法不能够很好地保留道路交叉路口特征点的问题,该文提出了一种基于道路交叉路口特征点的矢量数据化简算法。把曲线上的特征点分为交叉路口特征点和重要的特征点两类,对两类点分别进行处理得到分段点;利用相邻的分段点作为道格拉斯-普克算法的首尾点,对每段子曲线以基于最小二乘法拟合曲线选定最优距离阈值,进行逐段化简。实验结果表明,该算法能够有效地化简道路矢量数据并保留交叉路口和重要的特征点。  相似文献   

9.
针对现有的算法不能够很好地保留道路交叉路口特征点的问题,该文提出了一种基于道路交叉路口特征点的矢量数据化简算法。把曲线上的特征点分为交叉路口特征点和重要的特征点两类,对两类点分别进行处理得到分段点;利用相邻的分段点作为道格拉斯-普克算法的首尾点,对每段子曲线以基于最小二乘法拟合曲线选定最优距离阈值,进行逐段化简。实验结果表明,该算法能够有效地化简道路矢量数据并保留交叉路口和重要的特征点。  相似文献   

10.
针对现有的算法不能够很好地保留道路交叉路口特征点的问题,该文提出了一种基于道路交叉路口特征点的矢量数据化简算法。把曲线上的特征点分为交叉路口特征点和重要的特征点两类,对两类点分别进行处理得到分段点;利用相邻的分段点作为道格拉斯-普克算法的首尾点,对每段子曲线以基于最小二乘法拟合曲线选定最优距离阈值,进行逐段化简。实验结果表明,该算法能够有效地化简道路矢量数据并保留交叉路口和重要的特征点。  相似文献   

11.
矢量数据压缩的角度分段道格拉斯算法研究   总被引:8,自引:0,他引:8  
本文提出了一种矢量数据压缩方法:角度分段道格拉斯算法。该方法以道格拉斯—普克法为基础,通过对角度和距离的判断,取出代表曲率变化的特征点,对曲线进行分段,然后使用道格拉斯—普克法进行化简。在所需要化简的曲线弯曲程度变化较大的情况下,该方法可以规避其它压缩方法产生的压缩程度不够、丢失曲率变化特征点的问题。  相似文献   

12.
分析了常规压缩算法(如Douglas-Peucker算法)压缩无拓扑多边形数据会产生公共边界不一致现象,认为出现此现象的原因是多边形公共边界的压缩起始点选择不一致,进而提出了一种新的基于约束点的无拓扑多边形数据压缩算法。算法原理包括:首先将多边形公共边界的两个端点作为约束点处理,使得多边形从约束点处逻辑上分成几段;然后利用常规压缩算法进行分段压缩,使每一多边形公共边界的压缩初始点一致,从而保证了无拓扑多边形数据的一致性压缩;最后大量试验验证了此算法的有效性。  相似文献   

13.
针对传统点云压缩算法主要对小型物件的小数据量精细点云进行压缩,在大型地物的海量数据压缩方面存在压缩时间长、效率低的不足,提出了一种改进的分层点云数据压缩算法。基于大型地物点云空间结构特点将分层压缩算法的速度优势和距离压缩算法的高效优势相结合,解决了传统压缩算法在大型地物点云压缩方面的不足,实现了海量点云的快速高效压缩。西安市大雁塔三维激光点云压缩实验结果表明:该算法可以快速地完成海量点云的压缩,较之传统压缩算法极大地缩短了压缩时间,提高压缩效率。  相似文献   

14.
从传统矢量数据简化算法及基于并行技术的矢量数据简化算法两方面进行分析,将当前传统的矢量数据简化算法:Douglas-Peuker的简化算法及演化、Li-OpenShaw简化算法及演化、渐进式的简化算法及演化、基于小波理论的简化算法及演化和简化质量的评价,在基于并行技术简化算法研究的基础上,指出矢量数据并行简化和简化算法的智能化、感知化、自动化是矢量数据简化研究发展的趋势。  相似文献   

15.
基于蚁群优化算法的线状目标简化模型   总被引:1,自引:1,他引:0  
基于蚁群优化算法的基本原理,分析线状目标简化过程中所需满足的约束条件,建立具体的算法设计模型,并引入长期禁忌表和局部搜索策略以提高算法的运算效率,给出解题的关键步骤。最后对该算法进行测试,简化结果表明将蚁群优化算法用于线状目标的简化,能较好地保持线状目标的几何形状特征,在顾及长度偏差和矢量偏差的同时有较高的压缩率。与道格拉斯算法简化结果对比表明,在相同的几何限差内蚁群优化算法所得目标函数值更佳。  相似文献   

16.
This paper discusses algorithms for compressing floating point data which is encountered while performing resampling algorithm for rectifying geometric distortions on the images transmitted by the remote sensing satellite on a distributed computing environment. Two efficient algorithms for encoding and decoding floating point data compression, (i) 3-byte packing and (ii) 3-byte + 2-bit packing have been proposed. Both algorithms are tested to execute resampling algorithm on radiometrically corrected for IRS- LISS-III 4 bands data on a distributed system. First algorithm compresses 4-byte floating point data to 3-byte obtaining 25% compression while later one compresses 4-byte floating point data to 3-byte + 2-bit achieving about 18.75% compression. The computational time is reduced by 22% as compared to the distributed resampling algorithms without compression. Further it is found that in lossy compression algorithm only 220 pixels out of 37.4 MB pixels have utmost one Gray count difference, which will not pose any issues for digital classification or any other methods that will be employed in the corrected image by Image Analysts.  相似文献   

17.
Delaunay三角网建立的改进算法   总被引:5,自引:0,他引:5  
本文深入研究了Delaunay三角网建立算法中的逐点插入法,详细介绍了算法的实现步骤,分析了其中影响算法效率的关键环节,并采用数据点集分块管理、三角形快速定位、改变点插入顺序等方法进行了算法优化,对三角形快速定位方法进行了改进。测试实验的结果说明,算法改进后Delaunay三角网建立的效率提高了4~6倍。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号