一种利用多维目标分割比的矢量图形匹配算法

邹静, 陈永刚, 龚金琪, 董万虎, 孙燕飞, 王志林

邹静, 陈永刚, 龚金琪, 董万虎, 孙燕飞, 王志林. 一种利用多维目标分割比的矢量图形匹配算法[J]. 武汉大学学报 ( 信息科学版), 2020, 45(10): 1626-1632. DOI: 10.13203/j.whugis20190009
引用本文: 邹静, 陈永刚, 龚金琪, 董万虎, 孙燕飞, 王志林. 一种利用多维目标分割比的矢量图形匹配算法[J]. 武汉大学学报 ( 信息科学版), 2020, 45(10): 1626-1632. DOI: 10.13203/j.whugis20190009
ZOU Jing, CHEN Yonggang, GONG Jinqi, DONG Wanhu, SUN Yanfei, WANG Zhilin. An Efficient Matching Algorithm Based on Vector Graphics Using Multi-dimensional Object Segmentation Ratio[J]. Geomatics and Information Science of Wuhan University, 2020, 45(10): 1626-1632. DOI: 10.13203/j.whugis20190009
Citation: ZOU Jing, CHEN Yonggang, GONG Jinqi, DONG Wanhu, SUN Yanfei, WANG Zhilin. An Efficient Matching Algorithm Based on Vector Graphics Using Multi-dimensional Object Segmentation Ratio[J]. Geomatics and Information Science of Wuhan University, 2020, 45(10): 1626-1632. DOI: 10.13203/j.whugis20190009

一种利用多维目标分割比的矢量图形匹配算法

基金项目: 

浙江省自然科学基金 LY16D010009

详细信息
    作者简介:

    邹静, 硕士生, 主要从事森林资源遥感监测与信息技术研究。zou_jane@163.com

    通讯作者:

    陈永刚, 博士, 副教授。cyg_gis@163.com

  • 中图分类号: P208

An Efficient Matching Algorithm Based on Vector Graphics Using Multi-dimensional Object Segmentation Ratio

Funds: 

The Natural Science Foundation of Zhejiang Province LY16D010009

More Information
    Author Bio:

    ZOU Jing, postgraduate, specializes in the remote sensing monitoring and information technology of forest resources. E-mail: zou_jane@163.com

    Corresponding author:

    CHEN Yonggang, PhD, associate professor. E-mail: cyg_gis@163.com

  • 摘要: 图形的旋转、缩放、平移(rotate, scaling, translation, RST)以及边界微形变是影响矢量图形匹配结果的主要因素, 也是评价形状描述算法优良的标准。针对以上因素, 提出了一种多维目标分割比的矢量图形匹配算法。该算法通过对矢量图形构建特征线的方式实现形状特征的提取, 准确描述面目标要素的形状特征, 度量要素间的形状相似性。以2 000个真实地理实体的矢量图形作为匹配标准库, 随机选取半数图形作为待匹配图形, 对其采取不同程度的RST变换和边界简化, 然后与标准库做匹配试验, 并与其他图形匹配算法进行对比。试验结果表明, 所提出的算法具有更高的匹配准确率, 具有RST不变性和形变鲁棒性, 可以精准识别矢量图形的形状。
    Abstract: Rotation, scaling, translation (RST) and boundary micro-deformation are the main factors that affect the matching results of vector graphics, and are also good criteria for evaluating shape description algorithms. In this paper, a vector graphics matching algorithm using multi-dimensional object segmentation ratio is proposed for the influencing factors of shape matching. This algorithm extracts shape characteristic by constructing feature lines for vector graphics. It can accurately describe the shape characteristic of the polygon features to measure the shape similarity between the graphics. The vector graphics of 2 000 real geographical entities are used as the standard library for matching experiment, and half of the graphics are randomly selected as matching graphics. The matching graphics are taken to RST transformation and boundary simplification operations with varying degrees. The transformed graphics are matched with the standard library. The matching results are compared with other vector graphics matching algorithms to test the shape retrieval effect of this algorithm. This experiment demonstrate that the proposed algorithm has higher matching accuracy, RST invariance and deformation robustness. Therefore, it can accurately identify the shape of vector graphics.
  • 遥感对地观测技术以其广域性、时效性、便捷性和手段多样性等特点,在目标识别、变化检测、救灾决策、制图等领域受到广泛关注。针对不同的应用需求,各类遥感传感器的数量在不断增加。例如,陆地卫星(land satellite, Landsat)系列、中分辨率成像光谱仪(moderate-resolution ima‑ging spectroradiometer,MODIS)、哨兵(Sentinel)系列、中国的高分系列等。美国地质勘探局的一项研究中表明,全球范围内年平均云覆盖率达到66%[1]。从卫星上获取的遥感影像中存在云和云阴影所遮挡的低利用价值或无效像元。这些像元会对遥感影像信息提取、数据融合、影像解译等后续工作带来严重影响。因此,对于含云遥感影像中的无效像元进行准确识别和排除是必要的前期工作。

    传统的云检测算法[2-3]通常从云的不规则形状、高亮的纹理信息、云阴影之间的相似结构[4]、上下文信息[5]等浅层特征出发,利用人工设计的空间特征、波段计算和统计规则[6],探索不同波段之间隐含的光谱特征,结合特征阈值[7-9]和经典机器学习分类器[10-13]对这些浅层光谱特征[14]进行分类,实现云区的自动检测。但是,人工设计浅层特征需要依赖研究人员丰富的经验,并且人工寻找最优阈值费时费力。且参数的选择非常敏感,当遥感影像中的天气状况或者地物类型发生变化时,云检测精度往往呈现下降。此外,各类传统算法通常针对特定传感器的遥感影像,鲁棒性不强。例如,目前常用的Fmask系列算法中Fmask 1.0[15]和Fmask 3.0[16]适用于Landsat 4~8系列的影像,Fmask 2.0[17]和Fmask 4.0[18]中增加了对于Sentinel影像的云检测任务;多特征融合算法(multi-feature combined cloud and cloud shadow detection,MFC)[19]是一种针对4波段的高分一号(Gaofen-1,GF-1)数据的云检测算法,加拿大遥感中心的云检测算法[11]专门为MODIS卫星遥感影像设计;动态阈值云检测算法[10]则只能用于检测甚高分辨率辐射计影像中的云。

    近年来,基于深度学习的遥感影像云检测算法快速发展,其优越的性能依赖于丰富的特征表达,通过加深或者加宽级联式神经网络层,提取传统云检测算法难以涉及的高层语义特征。从方法论的角度出发,基于深度学习的云探测算法一般分为3类:(1)基于像素映射的云检测算法,例如文献[20]提出的云掩膜卷积网络。该方法将遥感影像和标签裁成33×33的小块,构建遥感影像块和对应标签块像素的一一对应模型,深度学习网络模型的最后一层采用ReLU激活函数构建图像与标签之间的对应关系。(2)基于图像分类的云检测算法,例如文献[21]提出的基于深度网络的多层云检测网络。这类算法的准确性主要依赖于前端分块操作中的分割算法,当地物块中同时包含云层和非云层像素时,分类误差较大。(3)基于语义分割的云检测算法[22-29]。这类算法是目前主流的算法,包括多尺度云检测网络[22]、基于卷积神经网络(convolutional neural networks, CNN)的云检测网络系列[23-24]、基于弱监督深度学习的云检测[26]、多尺度特征CNN云检测网络(multiscale features CNN,MF_CNN)[25]、密集连接全卷积神经网络(cloud detection neural network,CDN)[27]等。一般以通用的特征提取或语义分割网络作为主干网络,考虑特征的不同空间尺寸和感受野,结合多尺度特征融合、空洞卷积、空洞空间金字塔池化模块、注意力机制等,选取sigmoid、softmax等激活函数作为分类器,进行像素级的语义分割。

    然而,当前基于深度学习的云检测算法受数据驱动,要求训练数据集和目标数据集具有相似的光谱和空间结构分布。在处理跨区域或跨传感器数据时,往往性能急剧下降。增强训练模型的泛化能力是应对该问题的主流解决方案。近年来,针对云检测算法模型迁移能力增强的研究较少,主要从两个方面开展:(1)增加训练样本,将多个不同传感器下获得的图像一并纳入训练集。例如文献[30]在进行Landsat系列影像和Sentinel影像云检测模型的泛化能力研究时,选择两种数据一起参与模型训练,以达到在Sentinel测试影像上也能获取较好检测结果的目的。(2)在不同传感器下获得的图像/标签之间建立映射关系。例如,文献[31]考虑到影像之间的空间分辨率的差异,提出了一种针对Landsat 8和Proba-V数据云检测算法。但是这种方法的模型迁移阶段仍然需要大量的目标域影像标签数据,模型迁移问题并没有得到有效解决。

    针对以上问题,本文提出一种基于域自适应方法的云检测算法,无需目标测试集的标签,利用已有数据集(源域)上训练的模型,通过目标影像(目标域)与训练集影像之间的风格迁移,实现目标数据集上的云探测任务;引入循环生成对抗网络 (cycle-consistent generative adversarial network,CycleGAN)[32]算法实现不含标签的目标影像与已有训练集之间的光谱特征映射,将两者在深度神经元特征空间中对齐,从而提升云检测模型在实际应用中的鲁棒性。在高分二号、Landsat 7和Landsat 8等不同传感器且全球不同地理区域的影像上进行验证,结果表明,引入的域自适应模块可以实现不同数据集之间的光谱特征迁移,有效提高已训练模型的鲁棒性和可重复利用性。

    基于域自适应算法的云检测框架的流程见图1。整个框架包括3个步骤:(1)利用已有的带标签的数据集(源域A)训练云检测模型,得到Model_A;(2)构建训练集影像和目标数据集中不含标签的遥感影像(目标域B)之间的风格映射关系,将目标影像转换为具有训练数据特征的新合成影像。具体地,将目标域B与源域A同时输入图像风格迁移网络中进行训练,生成兼具源域A风格(在遥感影像中即影像的光谱信息)和目标域B内容(遥感影像中的空间信息)的合成影像。(3)在合成的目标数据集影像上执行云检测任务。将源域A上已经训练好的云检测模型Model_A直接应用于合成影像,预测目标域B中云的位置。

    图  1  基于域自适应算法的云检测算法框架
    Figure  1.  A Cloud Detection Framework Based on Domain Adaptive Algorithm

    本文提出的基于域自适应的云检测框架包括图像风格迁移和云检测两个步骤,每个步骤之间相互独立。考虑到源域和目标域影像之间并非一一对应,即在地理位置上不对齐,因此本文引入可针对非对齐数据的CycleGAN 作为图像风格迁移的算法。

    CycleGAN由两个镜像的生成对抗网络(generative adversarial network,GAN)结构构成一组闭环。两个GAN网络共享两个生成器GF,同时每个GAN网络自带一个判别器,生成器负责将输入的影像转换成其他风格的尽可能真实的影像,而判别器旨在成功判别出生成器生成的虚假影像,通过两者的相互博弈,生成器的数据转换能力和判别器的真假鉴别能力逐步提升,直到判别器无法辨别出生成器生成的影像为止,对抗达到动态平衡,如图2所示。具体的流程以Landsat 7数据集和Landsat 8数据集上的域自适应为例:首先从Landsat 7数据集中获取输入图像X,并将其输入到正向生成器G中,生成一个具有Landsat 8数据集风格的合成影像GX),然后利用判别器Dy对生成的影像进行判别,判别它是否属于Landsat 8数据集;接着将合成影像GX)输入逆向生成器F中,重新将合成影像转换成具有原始输入内容以及Landsat 7数据集风格的影像Cyclic X。在理想情况下,经过两次正逆生成器,输出的影像与原始的输入是相同的,但在实际情况中Cyclic X与输入X之间存在着重建损失。因此,在Landsat 7数据集向Landsat 8数据集风格迁移的过程中,存在着以下两种误差:

    LGANG,Dy,X,Y=ΕY~P(Y)[lnDy(Y)]+    ΕX~P(X)[ln1-Dy(G(X))] (1)
    LcycXG=ΕX~P(X)(F(G(X))-X1) (2)

    式中,P表示概率分布;LGAN表示计算风格迁移过程中的判别误差;Y为Landsat 8数据集中的影像;E表示数学期望;LcycX计算了影像X与重建结果FGX))之间的L1范数误差。

    图  2  基于CycleGAN的遥感影像域自适应算法
    Figure  2.  CycleGAN-Based Domain Adaptive Algorithm for Remote Sensing Images

    实现从Landsat 8数据集向Landsat 7数据集的风格迁移,其流程与以上类似。存在重建误差和判别误差两种误差项:

    LGANF,Dx,X,Y=ΕX~P(X)[lnDx(X)]+    ΕY~P(Y)[ln1-Dx(G(Y))] (3)
    LcycYF=ΕY~P(Y)[G(F(Y))-Y1] (4)

    最终的损失为:

    L(G,F,Dx,Dy)=LGAN(G,Dy,X,Y)+     LGAN(F,Dx,X,Y)+LcycX(G)+LcycY(F) (5)

    整个损失函数的优化目标为:

    G*,F*=arg minG,FmaxDx,DyL(G,F,Dx,Dy) (6)

    式中,G*表示生成器G的最佳优化目标;F*表示生成器F的最佳优化目标。

    除了图像风格迁移算法,云检测模型对于最终结果也至关重要。本文选择模型参数少且效果好的CDN作为云探测算法的基准。CDN是一个类UNet的结构,从信息流传递和多次重复利用特征的角度出发,引入密集连接结构,既减少了参数量,又提高了精度;同时引入通道注意力机制,将提取得到的多维特征按照不同维度特征之间的关系计算重要性权重,对于作用效果小的特征赋值小权重,对于对结果影响很大的特征赋值大权重,发挥多维特征的不同作用;引入多尺度特征融合模块,将解码层提取得到的多尺度特征分别进行上采样融合,参与最后的语义分割,充分发挥不同尺度特征的作用,适用于尺度不一的云层提取。具体结构详见文献[27]。

    为验证不同传感器下基于域自适应的云和云阴影探测算法的性能,选取大规模开源云检测数据集Landsat 7的Irish数据集[6]http://dx.doi.org/10.5066/F7KH0KDG)、Landsat 8的Biome数据集[33]http://dx.doi.org/10.5066/F79Z930Q)以及GF-1 宽幅相机(wide field of view came‑ra,WFV)的GF-WFV数据集[19]http://sendima-ge.whu.edu.cn/en/mfc/)进行实验,具体数据分布如表1所示。3个数据集的影像广泛分布在全球各个大洲。为了保证数据的统一性,Landsat 8和Landsat 7数据集上选取共有的6个波段:蓝、绿、红、近红外波段以及两个短波红外波段,即Landsat 7中的第1、2、3、4、5、7和Landsat 8中的第2、3、4、5、6、7波段,在进行GF传感器数据和Landsat系列数据的域自适应研究时,选取共有的蓝、绿、红、近红外波4个波段进行实验。

    表  1  实验数据分布
    Table  1.  Distribution of Experimental Data
    数据集训练集/幅验证集/幅测试集/幅
    Irish695186
    Biome482424
    GF-WFV403325
    下载: 导出CSV 
    | 显示表格

    表1所示,在Landsat 7 Irish数据集中,选取69幅影像作为训练集,51幅作为验证集,剩余的86幅为测试集,其中18幅没有进行薄云和厚云的区分,将其均划分在了测试集中;Landsat 8 Biome数据集中,48幅作为训练集,24幅作为验证集,剩余的24幅作为测试集;GF-WFV数据集中,40幅作为训练集,33幅作为验证集,25幅作为测试集。考虑到设备的性能,无论是在风格迁移还是在云检测中,都将训练集和验证集的影像裁剪成256×256像素大小的块,块间重叠度为10%。裁剪后,Irish数据集共有约7万块,Biome数据集约8.8万块,GF-WFV数据集约40.8万块。对于测试集,为了缓解实验结果中出现的拼接缝情况,测试影像被裁剪为1 024×1 024像素大小预测之后再拼接到原始尺寸。算法在Windows 10环境的Keras框架下实现,显卡为NVIDIA 11 GB 1080Ti,在云检测算法模型的训练过程中,迭代次数设置为10,在数据风格迁移的过程中,迭代次数设置为5。

    表2给出了使用不同模型和算法,包括传统方法和深度学习方法,在Landsat 7 Irish数据集上云检测结果的定量评价。Fmask 4.0属于传统算法,使用遥感影像中的所有波段,CDN和MF_CNN为基于深度学习的云检测算法,U‑Net[34]为基于深度学习的通用语义分割算法。除了目视评价之外,采用交并比、召回率、误检率和总体准确率等几个通用指标对云检测结果进行定量评价。

    表  2  Landsat 7 Irish测试集上的云检测结果定量评价
    Table  2.  Quantitative Evaluation of Cloud Detection Results on the Landsat 7 Irish Dataset
    方法交并比召回率误检率总体准确率
    Fmask 4.00.813 60.976 60.170 30.940 0
    U‑Net(7-7)0.893 00.939 00.052 00.970 2
    MF_CNN(7-7)0.834 70.587 20.096 10.871 3
    CDN(7-7)0.903 60.940 20.045 10.978 8
    U‑Net(8-7)0.206 90.201 60.112 40.786 0
    MF_CNN(8-7)0.381 90.398 10.335 50.837 3
    CDN(8-7)0.478 40.613 40.315 10.827 5
    U‑Net(8-7 ST)0.851 20.933 40.093 80.956 7
    MF_CNN(8-7 ST)0.808 80.957 80.161 30.941 1
    CDN(8-7 ST)0.832 00.928 00.110 60.951 7
    注:7-7表示训练和测试都用Landsat 7; 8-7表示在Landsat 8训练的模型直接预测Landsat 7;8-7 ST表示采用本文的风格迁移方法,用Landsat 8训练的模型预测Landsat 7。
    下载: 导出CSV 
    | 显示表格

    可以得出3个结论:(1)首先,当在训练和测

    试工作都是在Irish数据集上进行时,3种基于深度学习的云检测方法都获得了相对较好的结果。CDN表现最好,交并比比Fmask 4.0高9%,并且产生的误检最少。U‑Net比CDN略差,MF_CNN次之,Fmask 4.0最差。(2)当在Biome数据集上训练的模型被直接用来检测Irish数据集影像上的云时,3种基于深度学习的方法准确率明显下降。U‑Net的交并比下降了近60%,CDN的交并比下降了近40%,平均误检率上升了近19%。这证明了不同传感器下的数据集之间因光谱波长、成像条件、图像内容等造成的数据分布差异,大大地影响了深度学习模型的迁移能力。(3)采用基于CycleGAN的遥感影像风格迁移算法将Irish测试数据集图像转换为与训练图像具有相同色彩和波段的合成影像后,云检测精度明显上升,并且基本接近在原数据集中训练的模型测试的结果。这证明了本文提出的框架和引入的域自适应模块的有效性。

    图3表2所对应的云检测结果示例图。该影像于2001年5月31日获得,包含不同类型的云,如层状云和卷云。从图3中可以看出,Fmask 4.0的云检测结果有冗余,边缘信息完全丢失,这也是表2中其高召回率的主要原因。MF_CNN的结果过于平滑,这可能是由于它只关注不同感受野的多尺度特征,而忽略了不同空间分辨率的多尺度特征,此外,冗余的特征也没有得到有效取舍。CDN和U‑Net的结果与真实标签更相似,边缘更准确。当直接利用在Biome数据集上训练的模型来测试Irish数据集的图像时,3种基于深度学习的算法都完全不能获得结果,其中U‑Net和MF_CNN表现出严重的漏检,相反,CDN表现出严重的错检。在测试图像上进行风格迁移后,3种基于深度学习的方法都能完整且准确地检测出云层区域。MF_CNN的结果仍然过于平滑,而U‑Net和CDN的结果则相对更准确。

    图  3  Landsat7 Irish数据集测试结果示例图
    Figure  3.  Results for the Landsat 7 Irish Dataset

    表3展示了在Landsat 8 Biome数据集上的云检测结果。与之前得到的结论相似:(1)与传统算法Fmask 4.0相比,3种基于深度学习的云检测算法给出了更准确的结果。CDN的结果的交并比比Fmask 4.0的结果高7%,而MF_CNN和U‑Net的云检测结果在Biome数据集上很接近。(2)当使用在Irish数据集上训练的模型直接测试Biome数据集中的图像时,各项评价指标明显下降。然而,与Irish数据集上的下降程度相比,在Biome数据集上的下降相对较小,交并比平均下降了0.25。其原因可能是:Irish数据集中训练样本量更多,因此模型更加的鲁棒;且从光谱波段的范围(图4横坐标为波谱范围,纵坐标为影像类型)角度分析,Landsat 7影像的光谱波长范围几乎完全包含了Landsat 8影像对应波段的波长,因此模型的鲁棒性更强。(3)在测试数据集上进行风格迁移操作后,3种基于深度学习的方法得到的结果甚至比直接在Biome数据集上训练得到的模型的结果更好,主要原因也在于Irish数据集样本量大,波段覆盖Biome数据。

    表  3  Landsat 8 Biome测试集上的云检测结果定量评价
    Table  3.  Quantitative Evaluation of Cloud Detection Results on the Landsat 8 Biome Dataset
    方法交并比召回率误检率总体准确率
    Fmask 4.00.823 40.961 90.148 80.947 0
    U‑Net(8-8)0.848 20.969 80.128 80.958 4
    MF_CNN(8-8)0.841 10.987 50.161 00.949 9
    CDN(8-8)0.890 50.976 10.089 70.969 5
    U‑Net(7-8)0.607 10.947 50.371 80.868 0
    MF_CNN(7-8)0.476 40.989 80.521 30.727 3
    CDN(7-8)0.642 70.951 10.335 30.886 4
    U‑Net(7-8 ST)0.872 50.913 70.049 10.966 5
    MF_CNN(7-8 ST)0.827 00.920 40.109 40.952 5
    CDN(7-8 ST)0.862 70.898 40.044 00.964 2
    注:8-8表示训练和测试都用Landsat 8; 7-8表示在Landsat 7训练的模型直接预测Landsat 8;7-8 ST表示采用本文的风格迁移方法,用Landsat 7训练的模型预测Landsat 8。
    下载: 导出CSV 
    | 显示表格
    图  4  Landsat 7、Landsat 8和GF影像的波谱范围对比图
    Figure  4.  Bands of Landsat 7, Landsat 8 and GF Images

    图5表3对应的示例结果。Landsat 7风格的风格迁移影像(图5(c))在色调上与Landsat 7影像基本一致。在3种基于深度学习的云检测算法中,无论使用在Biome数据集上训练的模型或直接使用Irish数据集上训练的模型,检测Biome测试集的云都可以获得相对令人满意的结果。利用Irish数据集模型时精度下降的最主要原因在于漏检,无论是U‑Net、CDN还是MF_CNN,均存在部分漏检现象。

    图  5  Landsat 8 Biome数据集测试结果
    Figure  5.  Results of Landsat 8 Biome Dataset

    由于Landsat 7图像和Landsat 8图像的空间分辨率相同(30 m),为了验证模型在不同空间分辨率的影像上的迁移能力,在Landsat 7 Irish数据集上训练和GF-WFV数据集(16 m空间分辨率)上进行了实验。针对GF影像,利用专为其设计的MFC算法[19]作为传统云检测算法的代表。

    表4给出在GF-WFV数据集上不同云检测算法结果的定量评价。与在相同空间分辨率的影像上的实验结论相同:(1)在GF-WFV数据集上进行训练和测试时,3种基于深度学习的云检测算法都能获得比传统算法更优的结果。(2)当直接利用在Irish数据集中30 m空间分辨率图像上训练的云检测模型来检测GF-WFV数据集中16 m空间分辨率的图像时,精度有所下降。由于在实验中Landsat 7和GF-1影像选择的4个波段上,二者的光谱范围基本相同,所以准确率下降的比例并不明显。(3)将GF-WFV中的测试影像迁移到Irish数据集中影像的风格后进行测试,云层检测结果的准确性明显提高,且远优于传统方法,这证明了域自适应模块在不同分辨率影像迁移中的有效性。

    表  4  GF-WFV测试集上的云检测结果定量评价
    Table  4.  Quantitative Evaluation of Cloud Detection Results on GF-WFV Dataset
    方法交并比召回率误检率总体准确率
    MFC0.802 90.958 20.081 70.940 2
    U‑Net(GF-GF)0.814 40.902 30.106 80.951 8
    MF_CNN(GF-GF)0.861 10.919 20.068 40.965 3
    CDN(GF-GF)0.876 30.979 60.069 50.968 3
    U‑Net(7-GF)0.396 80.416 60.196 60.851 6
    MF_CNN(7-GF)0.553 80.576 40.166 30.891 1
    CDN(7-GF)0.603 80.611 40.120 00.906 0
    U‑Net(7-GF ST)0.862 30.882 70.051 80.955 5
    MF_CNN(7-GF ST)0.827 10.876 40.079 70.957 6
    CDN(7-GF ST)0.872 00.820 60.022 20.967 8
    注:GF-GF表示训练和测试都用GF数据集中影像; 7-GF表示在Landsat 7训练的模型直接预测GF影像;7-GF ST表示采用本文的风格迁移方法,用Landsat 7训练的模型预测GF影像。
    下载: 导出CSV 
    | 显示表格

    表5给出了GF数据训练迁移到Landsat 7 Irish数据集上的测试结果,同样可以得出与之前相同的结论。图6给出了GF-WFV数据集上的云检测结果。当直接使用在Irish数据集上训练的模型测试GF图像时,除了有部分漏检现象,几种基于深度学习的方法基本上都能检测到云层,在该数据集上漏检是误检率高的主要原因。而在图7中,当直接用在GF-WFV数据集上训练的模型测试Irish数据集中的图像时,也能基本检测到云层。误检率较高和交并比较低的主要原因是误检。

    表  5  Landsat 7测试集上的云检测结果定量评价
    Table  5.  Quantitative Evaluation of Cloud Detection Results on the Landsat 7 Dataset
    方法交并比召回率误检率总体准确率
    Fmask 4.00.813 60.976 60.170 30.940 0
    U‑Net(7-7)0.821 40.861 80.054 00.952 8
    MF_CNN(7-7)0.838 40.896 30.071 50.955 4
    CDN(7-7)0.862 90.880 90.038 50.970 0
    U‑Net(GF-7)0.726 70.808 70.122 50.920 8
    MF_CNN(GF-7)0.684 90.845 30.216 90.898 8
    CDN(GF-7)0.727 80.682 70.083 30.912 2
    U‑Net(GF-7 ST)0.832 90.813 40.104 80.958 8
    MF_CNN(GF-7 ST)0.782 70.916 80.066 90.956 0
    CDN(GF-7 ST)0.859 70.845 80.044 50.961 9
    注:7-7表示训练和测试都用Landsat 7数据集中影像;GF-7表示在GF数据集训练的模型直接预测Landsat 7影像;GF-7 ST表示采用本文的风格迁移方法,用GF-1 WFV数据集训练的模型预测Landsat 7影像。
    下载: 导出CSV 
    | 显示表格
    图  6  GF-WFV数据集测试结果
    Figure  6.  Results of GF-WFV Dataset
    图  7  Landsat 7 Irish数据集测试结果示例图
    Figure  7.  Results of Landsat 7 Irish Dataset

    通过大量实验发现,当源域和目标域影像的波段一致,或存在包含关系时,直接利用源域训练的模型进行目标域上的测试,云识别结果的精度较高,这体现了深度学习的鲁棒性。而当源域与目标域影像差异较大时,云检测效果将变得很

    差。利用域自适应模块,首先将目标域和源域中的影像通过风格迁移算法进行光谱信息的对齐,可以很好地解决精度下降的问题,能够得到与源数据集训练和测试相近的精度。

    本文采用了一种两阶段方法,即先风格迁移,再云检测的方法,而单阶段的域自适应语义分割算法是另外一种常用方法。为了比较和分析两种方法的云检测结果,选取典型的单阶段域自适应语义分割算法AdaptSegNet[35]作为代表,在Landsat 7 Irish数据集上进行实验对比。为了保证实验的一致性,AdaptSegNet中的语义分割

    网络选取CDN。

    表6给出了对比结果,其中AdaptSegNet表示直接在语义分割网络提取得到的特征上进行域自适应,AdaptSegNet(single)表示在分割网络提取的特征经过softmax之后得到的概率图上进行域自适应,而AdaptSegNet(multi)表示利用最后两层做两次域自适应,再参与后续的判别。实验结果表明,本文算法交并比精度比次优的AdaptSegNet(multi)高0.2%,误检率低1.5%。因此可以推断,两阶段方法相较单阶段方法而言具有一定的优势。

    表  6  Landsat 7 Irish测试集上的不同算法的定量评价结果
    Table  6.  Quantitative Evaluation Results of Different Algorithms on Landsat 7 Irish Dataset
    方法交并比召回率误检率总体准确率
    Fmask 4.00.813 60.976 60.170 30.940 0
    CDN(8-7 ST)0.832 00.928 00.110 60.951 7
    AdaptSegNet0.821 60.938 20.134 90.947 5
    AdaptSegNet(single)0.825 90.906 30.130 20.949 7
    AdaptSegNet(multi)0.830 20.953 10.125 70.950 2
    下载: 导出CSV 
    | 显示表格

    为提高深度学习模型在异源遥感图像云检测算法中的泛化性能,本文提出了一种基于域自适应的云和云阴影检测算法:采用图像迁移算法CycleGAN构建测试数据集和训练数据集的映射

    模型,使两者在光谱和空间信息的分布相近,从而有效解决了云检测算法模型在不同数据集上模型迁移能力弱的问题;通过引入域自适应步骤,基于深度学习的云检测方法能够充分利用已有数据集的预训练模型,极大减少了对目标样本集的依赖,同时性能远超传统的非深度学习云检测方法。本文方法对于不同空间分辨率的遥感影像之间的迁移也有较为稳定的效果。此外,

    在实验中发现,本文用到的CycleGAN在训练过程中的收敛较为困难,且当两个数据集的地物类型变化较大时,迁移效果会变差。探索一种更加鲁棒的遥感影像风格迁移算法是未来研究的方向。

  • 图  1   算法流程图

    Figure  1.   Flow Chart of Algorithm

    图  2   恒定起始方向的选取

    Figure  2.   Selection of Constant Starting Direction

    图  3   特征线划分

    Figure  3.   Division of Characteristic Lines

    图  4   质心在多边形外部时的特征点选取

    Figure  4.   Characteristic Points Selection when the Centroid is Outside the Polygon

    图  5   实验图形

    Figure  5.   Experimental Polygons

    图  6   图形边界简化效果

    Figure  6.   Simplification Effect of Shape Boundary

    图  7   特征线划分份数与匹配率关系

    Figure  7.   The Relation Between the Number of Characteristic Line and Matching Results

    表  1   算法的形状匹配结果/%

    Table  1   Shape Matching Results of the Algorithm/%

    算法 简化阈值
    0 m 8 m 16 m 24 m 32 m 40 m
    联合不变矩 76.5 0.6 0.1 0.2 0.0 0.1
    中心距离 100.0 74.3 44.7 27.3 17.6 11.4
    CALI 100.0 78.3 46.6 29.2 20.4 16.0
    45°分割比 100.0 80.9 54.8 33.1 24.4 16.0
    30°分割比 100.0 85.7 63.2 42.6 30.0 21.1
    15°分割比 100.0 87.8 66.7 49.3 35.0 25.3
    10°分割比 100.0 88.4 67.9 49.5 35.6 25.3
    5°分割比 100.0 89.0 69.7 50.9 36.6 25.9
    3°分割比 100.0 89.2 69.9 50.6 36.7 26.2
    下载: 导出CSV
  • [1]

    Sako Y, Fujimura K. Shape Similarity by Homotopic Deformation[J]. Visual Computer, 2000, 16(1):47-61 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=6504a1ca049c049ae77ad6755fbadbbd

    [2] 陈占龙, 覃梦娇, 吴亮, 等.利用多级弦长弯曲度复函数构建复杂面实体综合形状相似度量模型[J].测绘学报, 2016, 45(2):224-232 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chxb201602015

    Chen Zhanlong, Qin Mengjiao, Wu Liang, et al. Establishment of the Comprehensive Shape Similarity Model for Complex Polygon Entity by Using Bending Multilevel Chord Complex Function[J]. Acta Geodaetica et Cartographica Sinica, 2016, 45(2):224-232 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chxb201602015

    [3]

    Loncaric S. A Survey of Shape Analysis Techniques[J]. Pattern Recognition, 1998, 31(8):983-1 001 doi: 10.1016/S0031-2023(97)00122-2

    [4]

    Bidarra R, Bronsvoort W F. Semantic Feature Mode-lling[J]. Computer-Aided Design, 2000, 32(3):201-225 https://www.sciencedirect.com/science/article/pii/S0010448599000901

    [5] 郭黎, 崔铁军, 郑海鹰, 等.基于空间方向相似性的面状矢量空间数据匹配算法[J].测绘科学技术学报, 2008, 25(5): 380-382 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chxyxb200805018

    Guo Li, Cui Tiejun, Zheng Haiying, et al. Arithmetic for Area Vector Spatial Data Matching on Spatial Direction Similarity[J]. Journal of Geomatics Science and Technology, 2008, 25(5):380-382 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chxyxb200805018

    [6] 徐枫, 邓敏, 赵彬彬, 等.空间目标匹配方法的应用分析[J].地球信息科学学报, 2009, 11(5):657-663 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=dqxxkx200905016

    Xu Feng, Deng Min, Zhao Binbin, et al. A Detailed Investigation on the Methods of Object Matching[J]. Journal of Geo-Information Science, 2009, 11(5):657-663 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=dqxxkx200905016

    [7]

    Sun Y N, Liu W J, Wang Y C. United Moment Invariants for Shape Discrimination[C]. IEEE International Conference on Robotics, Intelligent Systems and Signal Processing, Changsha, China, 2003

    [8] 帅赟, 艾廷华, 帅海燕, 等.基于形状模板匹配的多边形查询[J].武汉大学学报·信息科学版, 2008, 33(12): 1 267-1 270 http://www.cnki.com.cn/Article/CJFDTotal-WHCH200812014.htm

    Shuai Yun, Ai Tinghua, Shuai Haiyan, et al. Polygonal Inquiry Based on Shape Template Matching[J]. Geomatics and Information Science of Wuhan University, 2008, 33(12):1 267-1 270 http://www.cnki.com.cn/Article/CJFDTotal-WHCH200812014.htm

    [9] 范仲鸣, 李精忠, 张小波.矢量多边形模式识别的小波方法[J].武汉大学学报·信息科学版, 2017, 42(10):1 400-1 405, 1 416 doi: 10.13203/j.whugis20150688

    Fan Zhongming, Li Jingzhong, Zhang Xiaobo. A Wavelet Method for Vector Polygon Pattern Recognition[J]. Geomatics and Information Science of Wuhan University, 2017, 42(10):1 400-1 405, 1 416 doi: 10.13203/j.whugis20150688

    [10] 田泽宇, 门朝光, 刘咏梅, 等.一种应用三角形划分的空间对象形状匹配方法[J].武汉大学学报·信息科学版, 2017, 42(6):749-755 doi: 10.13203/j.whugis20150786

    Tian Zeyu, Men Chaoguang, Liu Yongmei, et al. A Spatial Object Shape Matching Method Based on Triangular Division[J]. Geomatics and Information Science of Wuhan University, 2017, 42(6):749-755 doi: 10.13203/j.whugis20150786

    [11] 章莉萍, 郭庆胜, 孙艳.相邻比例尺地形图之间居民地要素匹配方法研究[J].武汉大学学报·信息科学版, 2008, 33(6):604-607 http://www.cnki.com.cn/Article/CJFDTotal-WHCH200806015.htm

    Zhang Liping, Guo Qingsheng, Sun Yan. The Method of Matching Residential Features in Topographic Maps at Neighboring Scales[J]. Geomatics and Information Science of Wuhan University, 2008, 33(6):604-607 http://www.cnki.com.cn/Article/CJFDTotal-WHCH200806015.htm

    [12] 邓敏, 钮沭联, 李志林. GIS空间目标的广义Hausdorff距离模型[J].武汉大学学报·信息科学版, 2007, 32(7):641-645 doi: 10.3321/j.issn:1671-8860.2007.07.019

    Deng Min, Niu Shulian, Li Zhilin. A Generalized Hausdorff Distance for Spatial Object in GIS[J]. Geomatics and Information Science of Wuhan University, 2007, 32(7):641-645 doi: 10.3321/j.issn:1671-8860.2007.07.019

    [13] 郝燕玲, 唐文静, 赵玉新, 等.基于空间相似性的面实体匹配算法研究[J].测绘学报, 2008, 37(4):501-506 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chxb200804017

    Hao Yanling, Tang Wenjing, Zhao Yuxin, et al. Areal Feature Matching Algorithm Based on Spatial Similarity[J]. Acta Geodaetica et Cartographica Sinica, 2008, 37(4):501-506 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chxb200804017

    [14] 崔光民, 王天江, 李成革, 等.基于几何直方图的特征描述[J].华中科技大学学报(自然科学版), 2015, 43(2):129-132 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=hzlgdxxb201502027

    Cui Guangmin, Wang Tianjiang, Li Chengge, et al. Geogram Based Feature Description[J]. Journal of Huazhong University of Science and Technology (Nature Science Edition), 2015, 43(2):129-132 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=hzlgdxxb201502027

    [15] 吴晓雨, 何彦, 杨磊, 等.基于改进形状上下文特征的二值图像检索[J].光学精密工程, 2015, 23(1):302-309 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=gxjmgc201501038

    Wu Xiaoyu, He Yan, Yang Lei, et al. Binary Image Retrieval Based on Improved Shape Context Algorithm[J]. Optics and Precision Engineering, 2015, 23(1):302-309 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=gxjmgc201501038

    [16]

    Fonseca M J, Ferreira A, Jorge J A. Generic Shape Classification for Retrieval[M]//Graphics Recognition, Ten Years Review and Future Perspectives. Berlin, Heidelberg: Springer, 2005

    [17] 陈占龙, 吴亮, 谢忠, 等.利用约束满足问题进行多洞面实体相似性度量[J].武汉大学学报·信息科学版, 2018, 43(5):745-751, 785 doi: 10.13203/j.whugis20160191

    Chen Zhanlong, Wu Liang, Xie Zhong, et al. Similarity Measurement of Multi-holed Regions Using Constraint Satisfaction Problem[J]. Geomatics and Information Science of Wuhan University, 2018, 43(5):745-751, 785 doi: 10.13203/j.whugis20160191

    [18]

    Lee S H, Kang S H. Performance Enhancement of the Branch Length Similarity Entropy Descriptor for Shape Recognition by Introducing Critical Points[J]. Journal of the Korean Physical Society, 2016, 69(7):1 254-1 262 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=5ec08cb6c8a1e2ed3b6ea10c5022f2ce

    [19] 张显全, 郭明明, 唐莹, 等.一种新的几何特征形状描述子[J].计算机工程与应用, 2007, 43(29):90-92 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=jsjgcyyy200729025

    Zhang Xianquan, Guo Mingming, Tang Ying, et al. A New Geometric Feature Shape Descriptor[J]. Computer Engineering and Applications, 2007, 43(29): 90-92 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=jsjgcyyy200729025

    [20]

    Wang D, Lu H, Bo C. Visual Tracking via Weighted Local Cosine Similarity[J]. IEEE Transactions on Cybernetics, 2015, 45(9):1 838-1 850 doi: 10.1109/TCYB.2014.2360924

    [21] 王笑天, 吕海洋.基于第一特征点的道格拉斯-普克压缩算法[J].软件导刊, 2016, 15(11):68-70 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=rjdk201611022

    Wang Xiaotian, Lü Haiyang. Douglas-Peucker Compression Algorithm Based on the First Feature Point[J]. Software Guide, 2016, 15(11):68-70 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=rjdk201611022

  • 期刊类型引用(1)

    1. 吴静,傅优杰,程朋根. 基于粗糙集的局部同位模式挖掘算法. 测绘通报. 2022(10): 80-85+104 . 百度学术

    其他类型引用(3)

图(7)  /  表(1)
计量
  • 文章访问数:  1324
  • HTML全文浏览量:  386
  • PDF下载量:  115
  • 被引次数: 4
出版历程
  • 收稿日期:  2019-04-08
  • 发布日期:  2020-10-04

目录

/

返回文章
返回