几种具有编解码结构的深度学习模型在建筑物综合中的应用与比较

杜佳威, 武芳, 行瑞星, 李彩霞, 李靖涵

杜佳威, 武芳, 行瑞星, 李彩霞, 李靖涵. 几种具有编解码结构的深度学习模型在建筑物综合中的应用与比较[J]. 武汉大学学报 ( 信息科学版), 2022, 47(7): 1052-1062. DOI: 10.13203/j.whugis20200143
引用本文: 杜佳威, 武芳, 行瑞星, 李彩霞, 李靖涵. 几种具有编解码结构的深度学习模型在建筑物综合中的应用与比较[J]. 武汉大学学报 ( 信息科学版), 2022, 47(7): 1052-1062. DOI: 10.13203/j.whugis20200143
DU Jiawei, WU Fang, XING Ruixing, LI Caixia, LI Jinghan. Trial and Comparison of Some Encoder-Decoder Based Deep Learning Models for Automated Generalization of Buildings[J]. Geomatics and Information Science of Wuhan University, 2022, 47(7): 1052-1062. DOI: 10.13203/j.whugis20200143
Citation: DU Jiawei, WU Fang, XING Ruixing, LI Caixia, LI Jinghan. Trial and Comparison of Some Encoder-Decoder Based Deep Learning Models for Automated Generalization of Buildings[J]. Geomatics and Information Science of Wuhan University, 2022, 47(7): 1052-1062. DOI: 10.13203/j.whugis20200143

几种具有编解码结构的深度学习模型在建筑物综合中的应用与比较

基金项目: 

国家自然科学基金 41471386

国家自然科学基金 41801396

详细信息
    作者简介:

    杜佳威, 博士, 研究方向为自动制图综合与空间数据智能处理。whdxdjw@126.com

    通讯作者:

    武芳, 博士, 教授, 博士生导师。wufang_630@126.com

  • 中图分类号: P283

Trial and Comparison of Some Encoder-Decoder Based Deep Learning Models for Automated Generalization of Buildings

Funds: 

The National Natural Science Foundation of China 41471386

The National Natural Science Foundation of China 41801396

More Information
    Author Bio:

    DU Jiawei, PhD, specializes in automated cartographic generalization and intelligent spatial data processing.E-mail: whdxdjw@126.com

    Corresponding author:

    WU Fang, PhD, professor. E-mail: wufang_630@126.com

  • 摘要: 深度学习技术促使诸多领域研究取得突破性进展, 基于深度神经网络的地图综合研究备受期待。将建筑物综合过程抽象解释为编解码过程, 系统地研究基于编解码结构的深度神经网络在建筑物综合中的应用。首先, 利用空间划分与矢量-栅格数据转换相结合的方式构建样本和样本集; 然后, 利用样本集训练基于编解码结构的深度神经网络, 实现建筑物综合学习泛化并测试、评估其效果; 最后, 搭建5种代表性的基于编解码结构的深度神经网络, 分析比较各模型在建筑物综合中的应用效果。实验结果表明, 基于编解码结构的深度神经网络能够从建筑物综合样本中学习或推理出部分建筑物综合知识和综合操作, 且5种模型中Pix2Pix更适用于建筑物综合的学习模拟。
    Abstract:
      Objectives  The deep learning technology has made a breakthrough in many fields, and the automated map generalization based on the deep neural network is highly expected. Building generalization is a typical generalization case and can be abstracted and interpreted as the process of encoding and decoding. It is worth systematically studying the simulation of building generalization with encoder-decoder based deep neural networks.
      Methods  Samples are drawn from vector buildings via the segmentation of spatial data and the conversion between vector data and raster data, which is based on a natural principle of objective generalization (i.e., the legibility principle drawn by scale). The encoder-decoder based deep neural networks are trained and tested with these samples to learn buildings generalization and to evaluate this application. Five representative models based on encoder-decoder structure are constructed for learning of generali-zing buildings from 1∶10 000 to 1∶50 000. The experimental data cover 44.1 km×38.6 km and contain 89 539 and 21 732 buildings before and after generalization respectively.Five representative models are EDnet, Unet, ResUnet, Unet++ and Pix2Pix representing the basic multi-layers encoder-decoder neural network, the encoder-decoder neural network with skip connection, the residual encoder-decoder neural network, the dense encoder-decoder neural network, and the encoder-decoder neural network with generative adversarial mechanism respectively. The training process and test results of the three constructed models are compared, and effects of these five models while they are applied to the automated generalization of buildings are analyzed.
      Results  The pixel accuracies of predicted results during EDnet training and testing are lowest obviously, Unet takes the second lowest place, and the pixel accuracies of results generated by other models(ResUnet, Unet++ and Pix2Pix) are higher and relatively close. Additionally, there are some holes and fuzzy representations in generalized buildings predicted by ResUnet and Unet++, which does not conform with the regular representation of buildings. Generalization results predicted by the Pix2Pix show that most of generalized building edges are clear and generalized buildings can be represented independently and completely.
      Conclusions  The Pix2Pix is more suitable than the other four models for learning and simulating buildings generalization in our experiment. The encoder-decoder based deep neural networks are likely to deduce some knowledge and operators of buildings generalization by learning from samples of the original and generalized data. The encoder-decoder based deep neural networks have the potential in the learning of map generalization.
  • 聚类是数据挖掘的基础技术,有广泛的应用前景[1-2]。聚类算法主要分为层次聚类法、网格聚类法、分割聚类法和密度聚类法[3]。其中,分割聚类法简单、快速,广泛应用于各个领域,典型的分割聚类法是K-means算法和K-medoids算法。在实际应用中,这两种算法由于需要用户输入聚类个数,聚类结果与初始点选择有关等缺点,不能很好地满足用户的需要[4]。《Science》中提出的峰值密度聚类算法虽然解决了上述问题,但存在阈值需要人为输入的问题[5]

    本文根据数据场,提出了数据质量聚类中心的概念。数据场将物质粒子间的相互作用及场描述方法引入到抽象的数域空间,实现数据对象或者样本点间相互作用的形式化描述[6]和计算。数据场将数据所具有的固有属性定义为数据的质量,并根据实际挖掘视角的不同,表示数据不同的属性。本文中,数据质量将代表数据的密集程度,并以此确定聚类中心,该方法无需用户输入聚类个数,也无需选择初始点,更无需人为设定阈值。

    在物理场中,物体的质量是不能改变的,是物体固有的属性。同理,在数据场中,数据的质量也代表了每个数据自身的固有属性。所不同的是,在数据场中,数据并不是实际存在的物体,可以这样认为,n维数据集构成了一个n维的数据空间,数据集中每一个数据就是存在于这个n维空间中的“物体”,其各种属性都遵从于这个n维空间自身的特点。

    定义:设数据集α含有N个数据点,α ={x1, x2xn},其中xi={xi1, xi2xip},组成一个P维空间Ω,在空间Ω中的数据点xi所固有的属性τ,称之为点xi在数据集α中的数据质量。

    需要注意的是,定义中数据质量代表的是数据在数据集中的固有属性,这个固有属性会随着数据挖掘视角的不同而改变。一个数据点在数据集中可能会具有多种不同的固有属性,应当根据当前的挖掘任务赋予数据相应的属性。因此,数据场中数据质量具有集群性,即只在数据集中具有质量;空间唯一性,即相关的属性只在对应的数据集中存在;可变性,即根据需求不同代表的数据属性也不同。

    聚类算法的目的是让类内相似度最高,类间相似度最低。反映在数据集的空间分布上,就是相似度高的数据分布在同一个类簇中,不同的类簇代表了不同的类别。因此,在聚类分析中,一般取数据密集程度这一属性作为数据的质量。此时,数据场中的数据质量本质上是反映数据集中数据的密集程度,处于密集区域的数据具有较大的数据质量,处于稀疏区域的数据具有较小的数据质量。

    图 1所示的红色点标出的是数据集中质量较大的点,与所描述的数据质量概念一致,这些点都处于数据集中的密集区域。在聚类分析中,处于密集区域的点都有可能成为聚类中心。图 1中所示的数据集含有5 000个点,而质量较大的点约有1 000个,显然,只根据数据的质量不能确定数据集的聚类中心。

    图  1  具有较大数据质量的点
    Figure  1.  Points with Big Mass

    类比于物理场中的引力,聚类中心应当具有较大的质量,能够吸引其他质量较小的点在其周围形成一个类簇。同时,各个聚类中心应当相距较远,从而使聚类中心之间的作用力很小,直至可以忽略,这样,类簇与类簇间的相互关系就很弱,而类簇内的相互关系就很强,满足了最基本的聚类思想。

    因此,数据质量聚类算法使用数据质量和数据之间的距离两个属性共同确定一个聚类中心。其中,数据之间的距离属性定义为:在数据集{x1, x2xn}中,所有比xi质量大的点到xi距离的最小值;如果点xi是数据集中质量最大的点,那么其距离属性就为数据集中其他点xj(j≠i)到xi距离的最大值。

    数据距离属性的计算式为:

    $$ {{\delta }_{i}}=\left\{ \begin{align} &\underset{j:{{m}_{j}}>{{m}_{i}}}{\mathop{\min }}\, ({{d}_{ij}}), \ \ \exists \ {{m}_{i}}<{{m}_{j}} \\ &\underset{j=1, 2, \cdots , n}{\mathop{\max }}\, ({{d}_{ij}}), \ \ \nexists \ {{m}_{i}}<{{m}_{j}} \\ \end{align} \right. $$ (1)

    式中,m表示数据的质量,dij表示两点间的距离。当数据集x1, x2xn中存在比xi数据质量大的点xj,即mimj时,数据之间的距离为所有比xi质量大的点到xi距离的最小值;如果不存在比xi数据质量大的点xj,即xi是数据集中质量最大的点,那么其距离属性就为数据集中其他点xj(j≠i)到xi距离的最大值。所以点ximiδi都较大时,可以确定是聚类中心。在实际操作中,为了便于准确找到数据集中同时具有较大数据质量和较大距离属性的点,用数据集中每个数据点的质量属性作为横坐标、距离属性作为纵坐标绘制的决策图来确定聚类中心。在决策图中,同时具有较大横坐标和纵坐标数值的点会脱离其他只具有1个较大属性的点或者不具有较大属性的点,从而可以将这些脱离出来的点作为聚类中心。

    图 2所示为数据集的决策图,可以发现,只有少数几个点的两个属性都较大,这些点用红色标出,作为备选聚类中心。

    图  2  聚类中心
    Figure  2.  Clustering Centers

    数据质量聚类算法的核心是确定聚类中心,涉及数据的质量和距离两个属性。其中,距离属性计算使用欧氏距离,质量的计算采用参考文献[7]中的方法。在确定聚类中心后,先进行数据类别的划分,即将剩余点划入与其最近的聚类中心,形成一个个类簇,然后根据用户需要输出聚类结果。算法流程如图 3所示。

    图  3  算法流程图
    Figure  3.  Algorithm Flow

    通过一系列的对比实验验证数据质量聚类算法的聚类效果,并与传统的K-means算法、K-medoids算法和文献[1]中的峰值密度聚类算法进行了对比。

    在对比实验中,采用7个数据集进行实验。数据集A1、A2、A3分别含有3 000个点和20个类簇、5 250个点和35个类簇、7 500个点和50个类簇,并且3个数据集中类簇内点的个数均为150个。数据集S1、S2、S3、S4都含有5 000个点和15个类簇,但是每个数据集中类簇的扩展程度不一样,而且4个数据集中每个类簇的中心是已知的[8]。这7个数据集的二维可视图如图 4图 5所示,图 4图 5中的横、纵坐标分别为数据集二维可视图的X轴和Y轴。

    图  4  数据集A1、A2、A3
    Figure  4.  Datasets of A1, A2, A3
    图  5  聚类中心数据集S1、S2、S3、S4
    Figure  5.  Clustering Centers Datasets of S1, S2, S3, S4

    首先对数据集A1, A2, A3分别使用数据质量聚类算法和K-means算法、K-medoids算法和峰值密度聚类算法进行聚类。将得到的聚类结果进行二维可视化展示,同时,对每个数据集中聚类结果进行统计,记录每种算法在每个类簇中聚集的点个数,与数据集实际每个类簇中应有点的个数进行对比,计算出准确率。

    K-means算法和K-medoids算法需要输入聚类个数,故按照数据集实际情况输入。数据质量聚类算法使用决策图确定聚类中心,如图 6所示为数据集A1、A2和A3通过决策图选出的聚类中心。图 6中彩色点为聚类中心,即横坐标和纵坐标都较大的点。所选出的聚类中心个数在数据集A1中为20,在A2中为35,在A3中为50,这与数据集原有的类簇个数相同。

    图  6  数据集A1、A2、A3的聚类中心
    Figure  6.  Clustering Centers Datasets of A1, A2, A3

    图 7是4种聚类算法的结果图,从图 7中可以发现,数据质量聚类算法和峰值密度聚类算法都有较好的聚类效果。对于聚类算法的准确率统计每一个数据集中4种算法对每一个类簇聚类的准确率,即类簇内点的个数和实际每个类内点的个数比值。统计结果如表 1所示。

    图  7  数据集A1、A2、A3聚类结果比较
    Figure  7.  Comparison of Clustering Results on Datasets A1, A2, A3
    表  1  数据集A1、A2、A3实验平均准确率统计表/%
    Table  1.  Clustering Accuracies of Datasets A1, A2, A3/%
    数据集 K-means
    算法
    K-medoids
    算法
    峰值密度
    聚类
    数据质量
    聚类
    A1 86.87 70.33 95.33 96.00
    A2 76.84 79.73 96.65 96.91
    A3 79.81 61.17 96.17 97.49
    下载: 导出CSV 
    | 显示表格

    表 1的统计结果中可以发现,数据质量的聚类算法具有最高的平均准确率,相比于传统的K-mean算法和K-medoids算法分割聚类算法,在准确率上提高了很多,同时,与最新的峰值密度聚类算法相比,准确率也有所提高。

    在数据集S1、S2、S3、S4中,每个类簇的中心是已知的,通过比较4种算法得到的聚类中心与实际中心的偏差量,对比每种算法确定聚类中心的效果。使用决策图确定数据质量聚类算法的聚类中心。K-means算法与K-medoids算法依然输入真实的类簇个数,4种算法聚类结果二维可视图如图 8所示。

    图  8  数据集S1、S2、S3、S4聚类结果比较
    Figure  8.  Comparison of Clustering Results on Datasets S1, S2, S3, S4

    图 8中,数据质量聚类算法和峰值密度聚类算法的聚类效果直观上要优于K-means算法和K-medoids算法。在对比聚类效果后,统计4种聚类算法所确定的聚类中心与实际中心位置的误差率。具体计算式为:

    $$ {{\gamma }_{i}}=\frac{1}{2}(\frac{{{x}_{i}}-{{a}_{i}}}{{{a}_{i}}}+\frac{{{y}_{i}}-{{b}_{i}}}{{{b}_{i}}}) $$ (2)

    式中,xiyi为实验中得到的聚类中心的坐标;aibi为数据集类簇实际的坐标。γi值越小,说明越接近实际的类簇中心。每个数据集中的平均误差率统计结果如表 2所示。

    表  2  数据集S1、S2、S3、S4聚类中心平均误差率统计/%
    Table  2.  Error Rate of Clustering Centers for Datasets S1, S2, S3, S4/%
    数据集 K-means
    算法
    K-medoids
    算法
    峰值密度
    聚类
    数据质量
    聚类
    S1 0.37 0.49 2.81 0.14
    S2 0.53 0.74 0.31 0.11
    S3 0.98 1.55 0.66 0.15
    S4 1.39 1.71 0.46 0.14
    下载: 导出CSV 
    | 显示表格

    表 2中可以看出,数据质量聚类算法所确定的聚类中心与实际聚类中心的误差率最小,几乎与实际中心重合,明显优于K-means算法、K-medoids算法和峰值密度聚类算法。

    综合数据集A1、A2、A3和数据集S1、S2、S3、S4的实验结果,可以认为数据质量聚类算法比传统的分割聚类算法和峰值密度聚类算法有更好的聚类效果。

    上述实验结果说明,数据质量聚类算法不仅可以准确提取出聚类中心的个数,而且在剩余点的划分上也有很高的准确率,对于数据集A1、A2、A3平均准确率分别达到了96.00%、96.91%和97.49%。在确定聚类中心上,本文方法也有很高的准确率,对于数据集S1、S2、S3、S4,聚类中心的平均误差率分别为0.14%、0.11%、0.15%和0.14%。数据质量聚类算法不仅在各项指标上明显优于传统的K-means算法和K-medoids算法,而且优于峰值密度聚类算法。

    对于数据集A1、A2、A3,数据质量聚类算法比峰值密度聚类算法在平均准确率上分别提高了0.67、0.26和1.32个百分点,而对于数据集S1、S2、S3、S4,聚类中心的平均误差率分别降低了20.07、2.82、4.40和3.29倍。综合以上实验结果,可以证明数据质量聚类算法能够准确确定聚类中心,并能够得到准确的聚类结果。

    传统的中心聚类算法虽然简单快速,但是需要用户输入较多参数,并且具有球形偏差,在实际应用中有较多限制。本文提出了数据质量的概念,即代表了数据场中数据的固有属性,并且根据挖掘视角的不同,数据质量所代表的属性也不同。在本文中,赋予数据质量数据密集程度的属性,结合物理场中引力的概念,提出一种确定聚类中心的新方法,即具有较大质量和较大距离属性的点可以视为聚类中心。本文方法解决了需要用户输入参数、聚类结果受初始点影响等问题,减少了中心聚类算法在实际应用中的限制。实验结果证明,数据质量聚类算法能够准确找到数据集的聚类中心,并具有较为准确的聚类结果。

    数据质量聚类算法虽然较为准确,但在实际应用中需要提高算法的效率,可以采取分布式计算的方式,这将是下一步研究的方向。

  • 图  1   经典的E-DDNN

    Figure  1.   A Classical E-DDNN

    图  2   E-DDNN的几种变体

    Figure  2.   Some Variants of E-DDNN

    图  3   基于E-DDNN的建筑物综合流程

    Figure  3.   Flowchart of Building Generalization Based onE-DDNN

    图  4   实验数据

    Figure  4.   Test Data

    图  5   综合后建筑群包络矩形最大边长的频率分布

    Figure  5.   Frequency of the Longest Edge Length of theEnvelope of Generalized Resident at the Scale of 1∶50 000

    图  6   样本示例

    Figure  6.   A Typical Sample

    图  7   基于{Φ1, Ψ1}的模型训练过程

    Figure  7.   Training Processes of Different Models with {Φ1, Ψ1}

    图  8   基于{Φ2, Ψ2}的模型训练过程

    Figure  8.   Training Processes of Different Models with {Φ2, Ψ2}

    图  9   不同模型测试结果示例

    Figure  9.   Test Results of Different Models

    图  10   Pix2Pix模型测试结果

    Figure  10.   Test Results of Pix2Pix Model

    图  11   基于Ω2的Pix2Pix模型测试结果

    Figure  11.   Test Results of Pix2Pix Model Based on the Ω2

    表  1   测试结果评价

    Table  1   Evaluation of Test Results Generalized by Different Models

    评价指标 不同模型对Ω1的测试效果 不同模型对Ω2的测试效果
    EDnet Unet ResUnet Unet++ Pix2Pix EDnet Unet ResUnet Unet++ Pix2Pix
    AVE (E1) 23.644 17.498 16.338 17.727 16.543 25.470 16.928 14.722 14.289 17.936
    AVE (E2) 0.503 0.608 0.678 0.651 0.596 0.541 0.619 0.627 0.632 0.568
    AVE (E3) 0.623 0.718 0.644 0.614 0.612 0.617 0.725 0.684 0.650 0.615
    AVE (E4) 0.534 0.627 0.643 0.611 0.584 0.554 0.644 0.635 0.618 0.567
    下载: 导出CSV
  • [1]

    Alexander K. Trust Me, I'm a Cartographer: Post-Truth and the Problem of Acritical Cartography [J]. The Cartographic Journal, 2017, 54 (3): 193-195 doi: 10.1080/00087041.2017.1376489

    [2] 武芳, 巩现勇, 杜佳威. 地图制图综合回顾与前望[J]. 测绘学报, 2017, 46(10): 1645-1664 doi: 10.11947/j.AGCS.2017.20170287

    Wu Fang, Gong Xianyong, Du Jiawei. Overview of the Research Progress in Automated Map Generalization [J]. Acta Geodaetica et Cartographica Sinica, 2017, 46(10): 1645-1664 doi: 10.11947/j.AGCS.2017.20170287

    [3] 王家耀, 范亦爱, 韩同春, 等. 普通地图制图综合原理[M]. 北京: 测绘出版社, 1993

    Wang Jiayao, Fan Yi'ai, Han Tongchun, et al. Cartographic Generalization Theory of General Map[M]. Beijing: Surveying and Mapping Press, 1993

    [4] 王家耀, 田震. 海图水深综合的人工神经元网络方法[J]. 测绘学报, 1999, 28(4): 335-339 doi: 10.3321/j.issn:1001-1595.1999.04.011

    Wang Jiayao, Tian Zhen. The Cartographic Generalization of Soundings on Chart by Artificial Neural Network Techniques [J]. Acta Geodaetica et Cartographica Sinica, 1999, 28(4): 335-339 doi: 10.3321/j.issn:1001-1595.1999.04.011

    [5] 邵黎霞, 何宗宜, 艾自兴, 等. 基于BP神经网络的河系自动综合研究[J]. 武汉大学学报∙信息科学版, 2004, 29(6): 555-557 http://ch.whu.edu.cn/article/id/4708

    Shao Lixia, He Zongyi, Ai Zixing, et al. Automatic Generalization of River Network Based on BP Neural Network Techniques [J]. Geomatics and Information Science of Wuhan University, 2004, 29(6): 555-557 http://ch.whu.edu.cn/article/id/4708

    [6] 谢丽敏, 钱海忠, 何海威, 等. 基于案例推理的居民地选取方法[J]. 测绘学报, 2017, 46(11): 1910-1918 doi: 10.11947/j.AGCS.2017.20170061

    Xie Limin, Qian Haizhong, He Haiwei, et al. A Habitation Selection Method by Using Case-Based Reasoning[J]. Acta Geodaetica et Cartographica Sinica, 2017, 46(11): 1910-1918 doi: 10.11947/j.AGCS.2017.20170061

    [7]

    Lee J, Jang H, Yang J, et al. Machine Learning Classification of Buildings for Map Generalization [J]. ISPRS International Journal of Geo-Information, 2017, 6(10): 309-324 doi: 10.3390/ijgi6100309

    [8]

    Zhou Q, Li Z. A Comparative Study of Various Supervised Learning Approaches to Selective Omission in a Road Network[J]. The Cartographic Journal, 2017, 54(3): 254-264 doi: 10.1179/1743277414Y.0000000083

    [9] 程博艳. 基于神经网络的地图建筑物要素智能综合研究[D]. 成都: 电子科技大学, 2014

    Cheng Boyan. Research on ANN-based Map Intelligent Generalization for Buildings[D]. Chengdu: University of Electronic Science and Technology of China, 2014

    [10]

    Zhang L, Deng H, Chen D, et al. A Spatial Cognition-Based Urban Building Clustering Approach and Its Applications [J]. International Journal of Geographical Information Science, 2013, 27(4): 721-740 doi: 10.1080/13658816.2012.700518

    [11]

    Allouche M K, Moulin B. Amalgamation in Cartographic Generalization Using Kohonen's Feature Nets [J]. International Journal of Geographical Information Science, 2005, 19(8/9): 899-914

    [12] 武芳, 邓红艳. 基于遗传算法的线要素自动化简模型[J]. 测绘学报, 2003, 32(4): 349-355 doi: 10.3321/j.issn:1001-1595.2003.04.013

    Wu Fang, Deng Hongyan. Using Genetic Algorithms for Solving Problems in Automated Line Simplification [J]. Acta Geodaetica et Cartographica Sinica, 2003, 32(4): 349-355 doi: 10.3321/j.issn:1001-1595.2003.04.013

    [13] 郑春燕, 郭庆胜, 胡华科. 基于蚁群优化算法的线状目标简化模型[J]. 测绘学报, 2011, 40(5): 635-638 https://www.cnki.com.cn/Article/CJFDTOTAL-CHXB201105019.htm

    Zheng Chunyan, Guo Qingsheng, Hu Huake. The Simplification Model of Linear Objects Based on Ant Colony Optimization Algorithm [J]. Acta Geodaetica et Cartographica Sinica, 2011, 40(5): 635-638 https://www.cnki.com.cn/Article/CJFDTOTAL-CHXB201105019.htm

    [14] 何海威, 钱海忠, 段佩祥, 等. 线要素化简及参数自动设置的案例推理方法[J]. 武汉大学学报∙信息科学版, 2020, 45(3): 344-352 doi: 10.13203/j.whugis20180250

    He Haiwei, Qian Haizhong, Duan Peixiang, et al. Automatic Line Simplification Algorithm Selecting and Parameter Setting Based on Case-Based Reasoning [J]. Geomatics and Information Science of Wuhan University, 2020, 45(3): 344-352 doi: 10.13203/j.whugis20180250

    [15]

    Wilson I D, Ware M. Reducing Graphic Conflict in Scale Reduced Maps Using Genetic Algorithm [C]// The 7th ICA Workshop on Progress in Automated Map Generalization, Paris, France, 2003

    [16] 孙雅庚, 郭庆胜, 刘远刚, 等. 顾及格式塔原则的建筑物群移位实数编码遗传算法[J]. 武汉大学学报∙信息科学版, 2015, 40(2): 269-273 http://ch.whu.edu.cn/article/id/3197

    Sun Yageng, Guo Qingsheng, Liu Yuangang, et al. A Real-Coded Genetic Algorithm Considering Gestalt Principles to Building Displacement [J]. Geomatics and Information Science of Wuhan University, 2015, 40(2): 269-273 http://ch.whu.edu.cn/article/id/3197

    [17]

    Kang Y, Gao S, Roth R E. Transferring Multiscale Map Styles Using Generative Adversarial Networks [J]. International Journal of Cartography, 2019, 5(2/3): 115-141

    [18] 马磊. 基于机器学习的建筑物形状化简模型[D]. 兰州: 兰州交通大学, 2018

    Ma Lei. A Simplification Model for Building Shapes Based on Machine Learning [D]. Lanzhou: Lanzhou Jiaotong University, 2018

    [19]

    Touya G, Zhang X, Lokhat I. Is Deep Learning the New Agent for Map Generalization[J]. International Journal of Cartography, 2019, 5(2/3): 142-157

    [20]

    Sester M, Feng Y, Thiemann F. Building Generalization Using Deep Learning [J]. International Archives of the Photogrammetry Remote Sensing and Spatial Information Sciences, 2018, 17(4): 565-572

    [21]

    Feng Y, Thiemann F, Sester M. Learning Cartographic Building Generalization with Deep Convolutional Neural Networks [J]. ISPRS International Journal of Geo-Information, 2019, 8(6): 258-278 doi: 10.3390/ijgi8060258

    [22]

    Ronneberger O, Fischer P, Brox T. Unet: Convolutional Networks for Biomedical Image Segmentation[C]//Medical Image Computing and Computer-Assisted Intervention, Munich, Germany, 2015

    [23]

    Zhou Z, Siddiquee M M R, Tajbakhsh N, et al. Unet++: Redesigning Skip Connections to Exploit Multiscale Features in Image Segmentation [J]. IEEE Transactions on Medical Imaging, 2020, 39(6): 1856-1867 doi: 10.1109/TMI.2019.2959609

    [24]

    Isola P, Zhu J, Zhou T, et al. Image-to-Image Translation with Conditional Adversarial Networks [C]// IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, HI, USA, 2017

    [25]

    Goodfellow I, Bengio Y, Courville A. Deep Learning [M]. Massachusetts: MIT Press, 2016

图(11)  /  表(1)
计量
  • 文章访问数:  1020
  • HTML全文浏览量:  195
  • PDF下载量:  114
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-01-21
  • 发布日期:  2022-07-04

目录

/

返回文章
返回