留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

利用具有注意力的Mask R-CNN检测震害建筑物立面损毁

眭海刚 黄立洪 刘超贤

眭海刚, 黄立洪, 刘超贤. 利用具有注意力的Mask R-CNN检测震害建筑物立面损毁[J]. 武汉大学学报 ● 信息科学版, 2020, 45(11): 1660-1668. doi: 10.13203/j.whugis20200158
引用本文: 眭海刚, 黄立洪, 刘超贤. 利用具有注意力的Mask R-CNN检测震害建筑物立面损毁[J]. 武汉大学学报 ● 信息科学版, 2020, 45(11): 1660-1668. doi: 10.13203/j.whugis20200158
SUI Haigang, HUANG Lihong, LIU Chaoxian. Detecting Building Façade Damage Caused by Earthquake Using CBAM-Improved Mask R-CNN[J]. Geomatics and Information Science of Wuhan University, 2020, 45(11): 1660-1668. doi: 10.13203/j.whugis20200158
Citation: SUI Haigang, HUANG Lihong, LIU Chaoxian. Detecting Building Façade Damage Caused by Earthquake Using CBAM-Improved Mask R-CNN[J]. Geomatics and Information Science of Wuhan University, 2020, 45(11): 1660-1668. doi: 10.13203/j.whugis20200158

利用具有注意力的Mask R-CNN检测震害建筑物立面损毁

doi: 10.13203/j.whugis20200158
基金项目: 

国家自然科学基金 41771457

国家重点研发计划 2018YFB10046

详细信息
    作者简介:

    眭海刚, 博士, 教授, 主要从事遥感、GIS以及灾害应急相关研究。haigang_sui@263.net

    通讯作者: 刘超贤, 博士。cx_leo@whu.edu.cn
  • 中图分类号: P237; P208

Detecting Building Façade Damage Caused by Earthquake Using CBAM-Improved Mask R-CNN

Funds: 

The National Natural Science Foundation of China 41771457

the National Key Research and Development Program of China 2018YFB10046

More Information
    Author Bio:

    SUI Haigang, PhD, professor, specializes in remote sensing, GIS and disaster emergency response.E-mail: haigang_sui@263.net

    Corresponding author: LIU Chaoxian, PhD. E-mail:cx_leo@whu.edu.cn
图(11) / 表(1)
计量
  • 文章访问数:  259
  • HTML全文浏览量:  154
  • PDF下载量:  158
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-04-15
  • 刊出日期:  2020-11-19

利用具有注意力的Mask R-CNN检测震害建筑物立面损毁

doi: 10.13203/j.whugis20200158
    基金项目:

    国家自然科学基金 41771457

    国家重点研发计划 2018YFB10046

    作者简介:

    眭海刚, 博士, 教授, 主要从事遥感、GIS以及灾害应急相关研究。haigang_sui@263.net

    通讯作者: 刘超贤, 博士。cx_leo@whu.edu.cn
  • 中图分类号: P237; P208

摘要: 震后建筑物损毁信息是灾情快速评估和应急救援的重要决策依据之一。针对传统的建筑物损毁遥感检测技术只关注于顶面信息,导致众多顶面结构完好而中间层、底层倒塌或崩裂的损毁建筑物处于检测盲点的问题,提出了一种融合引入注意力机制的深度学习实例分割模型和图像多尺度分割算法进行震后建筑物立面损毁检测的方法。首先,利用卷积块状注意力模块(convolutional block attention module, CBAM)改进掩模区域卷积神经网络(mask region-based convolutional networks, Mask R-CNN)模型实现了复杂建筑物立面背景中的损毁信息提取;然后,基于建筑物立面影像多尺度分割结果,利用多数投票规则实现了损毁检测结果的后处理优化。实验结果表明,相比传统损毁检测方法,所提方法能够更有效地实现震后建筑物立面损毁信息的精准定位,总体准确率可达到89.15%。

English Abstract

眭海刚, 黄立洪, 刘超贤. 利用具有注意力的Mask R-CNN检测震害建筑物立面损毁[J]. 武汉大学学报 ● 信息科学版, 2020, 45(11): 1660-1668. doi: 10.13203/j.whugis20200158
引用本文: 眭海刚, 黄立洪, 刘超贤. 利用具有注意力的Mask R-CNN检测震害建筑物立面损毁[J]. 武汉大学学报 ● 信息科学版, 2020, 45(11): 1660-1668. doi: 10.13203/j.whugis20200158
SUI Haigang, HUANG Lihong, LIU Chaoxian. Detecting Building Façade Damage Caused by Earthquake Using CBAM-Improved Mask R-CNN[J]. Geomatics and Information Science of Wuhan University, 2020, 45(11): 1660-1668. doi: 10.13203/j.whugis20200158
Citation: SUI Haigang, HUANG Lihong, LIU Chaoxian. Detecting Building Façade Damage Caused by Earthquake Using CBAM-Improved Mask R-CNN[J]. Geomatics and Information Science of Wuhan University, 2020, 45(11): 1660-1668. doi: 10.13203/j.whugis20200158
  • 近年来,地震灾害频发,破坏力巨大的强震给人类社会带来了无法弥补的物质和精神损失。建筑物损毁信息作为灾区的典型震害特征,能够为开展震后灾情评估、应急响应以及恢复重建等工作提供重要的决策依据[1]。飞速发展的遥感技术凭借全时、全域、高动态、精细化的对地观测能力,在减灾救灾方面的应用逐渐得到重视[2-3]

    地震发生后,受制于卫星、航空遥感影像传感器飞行高度和拍摄视角的影响,灾区常存在顶面完好而中间层、底层倒塌或崩裂的损毁建筑物被漏检的情况,如图 1所示。而随着传感器技术的发展,利用地面图像传感器对震后建筑物进行近距离影像采集以及精细化损毁检测逐渐成为可能。与卫星、航空遥感影像数据相比,地面影像能够有效克服前者存在的地物遮挡和图像变形等问题,从而为实现建筑物全方位精细化损毁检测提供必要的地面支持。且随着近几年众源地理数据[4]的飞速发展,地面影像数据的获取成本低、信息海量和实时性强等特点使其在震后建筑物立面损毁检测中具有广阔的应用前景。

    图  1  震后顶面完好而立面破损的建筑物

    Figure 1.  Post-Earthquake Building with an Intact Roof Surface and Damaged Façade

    从现有的建筑物立面损毁检测研究来看,相关学者主要从单时相的角度提出了两种类型的检测方法:(1)基于像素分类的建筑物立面损毁检测。该方法又分为基于纹理特征和统计特征的损毁检测,基于纹理特征的方法主要利用灰度共生矩阵(gray level co-occurrence matrices,GLCM)及其统计属性进行损毁检测,但受限于建筑物立面背景的纹理复杂度和粗糙度,不适用于检测单时相建筑物立面损毁信息[5];基于统计特征的方法通过利用经济学中的基尼系数判别门窗等部件元素是否整齐排布来判定建筑物立面是否损毁,但其应用场景较为局限,泛化能力较弱[6];(2)面向对象(object-based image analysis,OBIA)分类的建筑物立面损毁检测。该方法首先将建筑物立面分割成多个超像素块,然后通过视觉词袋模型(bag of visual words,BOVW)等手段对其提取损毁特征并进行分类,但由于建筑物立面材质和纹理结构等丰富各异,因此难以制定一套通用的图像分割参数和特征描述标准[7-9]。总体上,现有的单时相建筑物立面损毁检测方法主要基于小样本数据开展相关研究,模型的检测能力和泛化能力均存在较大提升空间,且现有研究对建筑物立面损毁检测结果的后处理优化方面仍缺乏足够讨论。

    针对以上问题,本文提出了一种融合深度学习实例分割模型和图像多尺度分割算法的震后建筑物立面损毁检测方法。其中:(1)样本集构建方面,通过前往地震遗址实地采集震害建筑物地面影像数据,并进行面向小样本的图像增广来保障模型的训练样本量;(2)模型检测方面,采用深度学习实例分割模型对建筑物立面影像进行损毁特征的深度挖掘和检测识别,能够从复杂的建筑物立面纹理背景中有效提取损毁信息;(3)后处理优化方面,使用建筑物立面影像的多尺度分割结果对其损毁检测结果进行融合处理,能够有效解决因卷积层数叠加所导致的损毁边界模糊问题。实验结果表明,该方法比现有方法精度更高,且能够从复杂建筑物立面背景中有效提取出损毁信息。

    • 本文提出的震后建筑物立面损毁检测方法包括3个核心步骤:(1)基于实地采集的震后建筑物地面影像数据进行图像增广和样本集制备;(2)将样本集代入引入注意力机制的深度学习实例分割模型中进行训练,然后将待检影像代入训练后的模型中得到检测结果;(3)采用图像多尺度分割算法对待检影像进行同质像元聚类分割,然后基于多数投票规则将多尺度分割结果和模型检测结果进行融合处理,得到最终的建筑物立面损毁检测结果。立面损毁检测算法流程如图 2所示。

      图  2  震后建筑物立面损毁检测流程图

      Figure 2.  Flowchart of Post-Earthquake Building Facade Damage Detection

    • 由于目前基于地面影像的震后建筑物立面损毁检测研究开展得较少,且尚无渠道获取对应的开源影像数据集,本文通过前往北川老县城地震遗址实地采集震害建筑物的地面影像数据来进行研究。为了防止模型在训练过程中过拟合,并尽可能使数据集多样化,采用图像增广的方式对实地采集的小样本数据集进行样本集扩充。图像增广是指通过对训练图像作一系列随机改变来产生相似但又不同的训练样本,从而扩大训练样本集的规模,并提高模型的场景泛化能力。结合震后实地拍摄过程中可能存在因人为失误、设备老化和天气条件等影响所导致的图像模糊、图像噪声和图像过曝、欠曝等问题,本文分别对地面影像数据集添加高斯模糊、椒盐(高斯)噪声和高斯过曝、欠曝噪声等处理来进行基于实景模拟的图像增广(见图 3

      图  3  图像增广处理

      Figure 3.  Image Augmentation Processing

    • 由于建筑物立面损毁信息处于一个相对复杂的背景环境中,使用传统的GLCM或BOVW等方法难以从建筑物立面背景中有效提取出损毁信息,因此本文选用文献[10]提出的Mask R-CNN模型作为震后建筑物立面损毁检测的核心算法。在结构上,Mask R-CNN模型由更快速区域卷积神经网络(faster region-based convolutional networks,Faster R-CNN)模型和全卷积网络(fully convolutional networks,FCN)模型共同组成。在实现上,首先利用Faster R-CNN模型[11]从输入图像中检测出感兴趣目标并对其使用标注框定位;然后进一步利用FCN模型[12]对标注框内的目标进行像素级的标注分类。由于Mask R-CNN模型本身具有较深的卷积层数,其对于建筑物立面损毁信息也具有较为深入的特征挖掘和学习识别能力。因此,相较传统方法,在使用深度学习实例分割模型进行建筑物立面损毁检测时,能够更好地从复杂建筑物立面背景中有效提取出损毁信息,并对其进行准确定位和像素级标注。

      此外,由于建筑物立面不可避免地存在诸如窗、门、阳台等部件元素的干扰,为了使模型更好地聚焦于立面损毁信息,通过引入注意力机制的方式对Mask R-CNN模型进行改进。注意力机制本质上是一种聚焦于局部信息的机制,它能够定位图像中的感兴趣信息,并抑制无用信息,结果通常以概率图或概率特征向量的形式展示。本文采用文献[13]提出的卷积块状注意力模块(convolutional block attention module,CBAM),其本质上是一种空间和通道混合型注意力机制。在实现上,首先对输入特征图进行通道维注意力建模,通过对各个特征通道应用相应的注意力权重,学习到不同通道的重要性;然后对特征图进行空间维注意力建模,通过对特征图的不同空间位置应用相应的注意力权重,从而对感兴趣目标进行空间位置上的聚焦。通过引入CBAM注意力机制,能够使Mask R-CNN模型在训练和预测过程中更好地聚焦于图像中最重要的特征通道和空间位置。

      具体地,选取ResNet-101网络[14]作为Mask R-CNN模型的特征提取网络,如图 4所示。在特征提取阶段,首先对输入影像进行逐层卷积;然后由浅入深地提取其各个阶段所得到的特征图,并记作C1C2C3C4C5。在特征融合阶段,首先,对C5进行1×1卷积,输出P5;其次,对P5进行2×2上采样,并与经过1×1卷积后的C4进行对应元素求和操作,得到P4,以此类推,分别得到P3P2;然后对P2P3P4P5分别进行3×3卷积,以消除上采样操作中所带来的混叠效应;最后对3×3卷积后的P5进行池化,得到P6,并将最终输出的$\left\{ {{P_2}, {P_3}, {P_4}, {P_5}, {P_6}} \right\}$作为区域候选网络(region proposal network,RPN)网络的输入特征用于后续训练。

      图  4  Mask R-CNN模型特征提取网络结构

      Figure 4.  Feature Extraction Network of Mask R-CNN

      上述过程中,P5P4P3P2的计算公式(不包含3×3卷积)为:

      $$ {P_5} = {\rm{Con}}{{\rm{v}}_{1 \times 1}}\left( {{C_5}} \right) $$ (1)
      $$ {P_i} = {\rm{Con}}{{\rm{v}}_{1 \times 1}}\left( {{C_i}} \right){\rm{}} \oplus {f_u}\left( {{P_{i + 1}}} \right), i \in \left\{ {4, {\rm{}}3, {\rm{}}2} \right\} $$ (2)

      式中,$C_i$表示ResNet-101网络第阶段所提取的特征图;$P_i表示C_i$经过特征融合后输出的特征图;Conv1×1表示1×1卷积层;$ \oplus $表示对应元素相加操作;$f_u$表示2×2上采样。

      采用CBAM注意力机制对Mask R-CNN模型特征提取网络的特征融合阶段进行改造,通过在$C_2$、$C_3$、$C_4$、$C_5$的1×1卷积层后分别添加CBAM注意力模块[15],以提高Mask R-CNN模型对建筑物立面损毁信息的通道和空间聚焦能力,如图 5所示。由于CBAM注意力模块直接嵌入到Mask R-CNN模型中,并参与整个模型的网络参数迭代更新,因此,随着模型的不断训练,CBAM注意力权重矩阵也会不断优化并逐渐收敛得到最优权重矩阵。

      图  5  引入CBAM注意力机制的Mask R-CNN模型特征提取网络

      Figure 5.  Feature Extraction Network of Mask R-CNN Model Improved by CBAM Attention Mechanism

      改进后的P5P4P3P2计算公式为:

      $$ {P_5} = {\rm{Con}}{{\rm{v}}_{1 \times 1}}\left( {{C_5}} \right) \otimes {\mathit{\boldsymbol{A}}_5}\left( {{\rm{Con}}{{\rm{v}}_{1 \times 1}}\left( {{C_5}} \right)} \right) $$ (3)
      $$ \begin{array}{l} {P_i} = {\rm{Con}}{{\rm{v}}_{1 \times 1}}\left( {{C_i}} \right) \otimes {\mathit{\boldsymbol{A}}_i}\left( {{\rm{Con}}{{\rm{v}}_{1 \times 1}}\left( {{C_i}} \right)} \right) \oplus {f_u}\left( {{P_{i + 1}}} \right), \\ \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;i \in \left\{ {4, {\rm{}}3, {\rm{}}2} \right\} \end{array} $$ (4)

      式中,${\mathit{\boldsymbol{A}}_i}$代表第i阶段特征图所对应的CBAM注意力权重矩阵;$\otimes $代表对应元素相乘操作。

    • 随着卷积神经网络层数的叠加,建筑物立面损毁的边界信息容易丢失。因此,基于建筑物立面影像的多尺度分割结果对其损毁检测结果进行后处理优化,从而借助多尺度分割算法的同质像元聚类属性,尽可能地保留建筑物立面损毁的边界信息。多尺度分割是指在影像信息损失最小的前提下,以任意尺度生成异质性最小、同质性最大的有意义多边形对象。通常分割尺度越大,所生成多边形分割对象的面积就越大而数目越少,反之则面积越小而数目越多。

      借助eCognition软件中的多尺度分割工具,通过设置不同尺度参数对图像进行多种尺度的分割,并采用多数投票规则作为建筑物立面影像多尺度分割结果和损毁检测结果的融合处理算法。首先,根据多尺度分割结果将建筑物立面影像划分为不同子区域;然后,计算各个子区域所对应的损毁检测结果中各类别(损毁、非损毁)的像元总数;最后,根据像元数的统计结果,将包含像元总数最多的类别作为该子区域的所属类别,如图 6所示。计算公式为:

      $$ {L_r} = {\rm{argmax}}_{c = 1}^M\mathop \sum \limits_i \mathop \sum \limits_j {\rm{sgn}}\left[ {f\left( {r\left( {i, j} \right)} \right) = c} \right] $$ (5)

      图  6  融合处理流程图

      Figure 6.  Flowchart of Fusion Processing

      式中,$L_r$为子区域r所属的类别;M为损毁检测结果的总类别数;$r(i, j)$为区域r内坐标为(i, j)的像元;f(r(i, j))为像元r(i, j)所属的类别;sgn(x)函数为数学上的符号函数,如果x为真,则sgn返回1,否则,返回0。

    • 2008年5·12汶川Ms 8.0地震,共导致69 227人遇难,374 643人受伤,17 923人失踪,所造成的建筑物损毁以及经济损失不计其数。按照四川省灾后重建总体规划,北川老县城作为地震遗址被保留下来,是目前全世界唯一整体原址原貌保护的规模最宏大、破坏类型最全面、次生灾害最典型的地震灾难遗址区,遗址区位如图 7所示。研究组于2019年8月12日至16日前往该地震遗址开展了震害建筑物地面影像数据采集工作。

      图  7  北川老县城地震遗址区位

      Figure 7.  Location of Beichuan Old County Seismic Site

    • 首先,对研究组在北川地震遗址采集的震害建筑物地面影像数据,分别添加高斯模糊、椒盐(高斯)噪声和高斯过曝、欠曝噪声等来实现面向小样本的图像增广和样本集制备;然后,将该标注样本集代入引入CBAM注意力机制的Mask R-CNN模型(简称CMR模型)中进行训练;最后,将如图 8(a)8(b)8(c)8(d)所示的待检建筑物地面原始影像输入训练后的CMR模型,输出如图 8(e)8(f)8(g)8(h)所示的建筑物立面损毁检测结果。可以发现,从CMR模型输出的检测结果中,既能获得建筑物立面共有几处损毁及其相应的位置信息,又能获得每一处损毁所覆盖的范围信息;而且在面向不同色彩、材质和纹理结构的建筑物立面背景时,模型都能够从中较为准确地检测出墙面裂缝、墙体剥落、墙面孔洞和倒塌砾石堆等损毁信息。需要说明的是,由于模型对影像中的疑似损毁区域具有较强的敏感性,故部分路面碎石堆也会被检测为倒塌砾石堆的损毁类型而被标注出,如图 8(h)中红框所示。

      图  8  CMR模型输出北川遗址建筑物立面损毁检测结果

      Figure 8.  Beichuan Building Façade Damage Detection Results Using CMR Model

      为了验证本文方法的模型可迁移性和鲁棒性,采用研究组在汉旺地震遗址采集的典型震害建筑物地面影像作为测试组,将如图 9(a)9(b)9(c)9(d)所示的待检建筑物地面原始影像输入训练后的CMR模型,输出如图 9(e)9(f)9(g)9(h)所示的建筑物立面损毁检测结果。可以发现,在CMR模型输出的建筑物立面损毁检测结果中,待检影像中大部分的墙体剥落、墙面孔洞和墙面裂缝等损毁信息均能被检测出来。因此,可以推断出本文方法在应用于震后建筑物立面损毁检测时具有一定的模型可迁移性和场景鲁棒性。

      图  9  CMR模型输出汉旺遗址建筑物立面损毁检测结果

      Figure 9.  Hanwang Building Façade Damage Detection Results Using CMR Model

    • CMR模型虽然能够较为准确地检测出建筑物立面损毁信息,但随着卷积网络层数的叠加,建筑物立面损毁的边界信息会有所丢失。因此,基于多数投票规则,采用建筑物立面影像的多尺度分割结果对其损毁检测结果进行融合处理。为了分析不同分割尺度对损毁检测结果优化的影响,分别采用尺度参数为300、100、50的建筑物立面影像分割结果对CMR模型输出的损毁检测结果进行融合处理,得到的结果如图 10(a)10(b)10(c)所示。

      图  10  融合处理结果

      Figure 10.  Fusion Processing Results

      可以发现,随着分割尺度参数降低(影像过分割程度加深),融合处理后所保留的建筑物立面损毁信息更加完整,且能够对建筑物立面的细节损毁信息(如墙体剥落、墙面裂缝等)进行更为精准的边界提取。因此,在对比实验后,本文最终选定图像多尺度分割参数为50。

      融合处理前,尽管采用CMR模型能够较为准确地定位建筑物立面影像中的损毁信息,但随着卷积网络层数的叠加,立面损毁的边界信息会逐渐模糊或丢失,如图 11(b)11(c)11(d)中的红圈所示。而利用多尺度分割算法能够实现图像中的同质像元聚类,并保留各类别之间较为准确的边界信息。因此,在经过多尺度分割融合后处理之后的建筑物立面损毁检测结果中,不仅能够得到建筑物立面损毁信息的精准定位结果,还能够保留其准确的边界信息,从而显著提升了诸如墙体剥落、墙面裂缝等建筑物立面细节损毁信息的分割精度,如图 11(f)11(g)11(h)中的绿圈所示。

      图  11  融合处理效果对比

      Figure 11.  Comparison of Fusion Processing Effects

    • 本文选取的精度评价指标包括准确率A、精确率P、召回率RFβ分数。

      准确率表示预测正确的结果占总样本的百分比,其计算公式为:

      $$ A = \frac{{{T_P} + {T_N}}}{{{T_P} + {F_P} + {T_N} + {F_N}}} \times 100\% $$ (6)

      式中,$T_P$表示实际为正预测为正的像素个数;$F_P$表示实际为负预测为正的像素个数;$T_N$表示实际为负预测为负的像素个数;$F_N$表示实际为正预测为负的像素个数。

      准确率虽然能够判断模型的总体正确率,但在正负样本量不均时容易失效,故又引入了精确率、召回率和Fβ分数指标。具体地,精确率表示在所有被预测为正的样本中实际也为正样本的概率,精确率越高代表模型的误检率越低。其计算公式为:

      $$ P = \frac{{{T_P}}}{{{T_P} + {F_P}}} \times 100\% $$ (7)

      召回率表示在实际为正的样本中被预测也为正样本的概率,召回率越高代表模型的漏检率越低。其计算公式为:

      $$ R = \frac{{{T_P}}}{{{T_P} + {F_N}}} \times 100\% $$ (8)

      Fβ分数表示精确率和召回率的综合评价指标。选取F2分数作为综合评价指标,计算公式为:

      $$ {F_\beta } = \left( {1 + {\beta ^2}} \right) \cdot \frac{{PR}}{{\left( {{\beta ^2}P} \right) + R}} $$ (9)

      从验证集中选取一组建筑物地面影像,分别采用传统方法中具有代表性的BOVW模型、深度学习实例分割方法中的Mask R-CNN模型和本文方法进行建筑物立面损毁检测实验,并根据各个模型输出的检测结果计算上述精度评价指标,得到如表 1所示的计算结果。

      表 1  精度比较/%

      Table 1.  Comparison of the Performance/%

      模型 准确率 精确率 召回率 F2分数
      BOVW 67.78 32.55 40.19 33.74
      Mask R-CNN 86.91 65.91 61.72 62.70
      本文方法 89.15 72.19 68.01 68.20

      可以发现,相比于传统方法,深度学习实例分割模型能够大幅提升建筑物立面损毁检测能力;而本文方法又能够通过改进Mask R-CNN模型对建筑物立面损毁信息的通道和空间聚焦能力,有效提高其检测准确率、精确率、召回率和F2分数,从而进一步降低模型的误检率和漏检率。

    • 建筑物立面损毁检测对震后建筑物全方位损毁评估有着重要意义。针对目前建筑物损毁检测研究中立面损毁评估缺乏以及智能化、精细化水平不高等缺点,本文提出了一种融合引入注意力机制的深度学习实例分割模型和图像多尺度分割算法进行震后建筑物立面损毁检测的方法。通过实地采集建筑物地面影像并结合灾区情况进行图像增广,有效保障了实例分割模型在训练过程中的必要样本量;引入CBAM注意力模块改进Mask R-CNN模型,显著提高了震后建筑物立面损毁检测能力,实现了从复杂建筑物立面背景中有效提取损毁信息;此外,采用影像多尺度分割结果对建筑物立面损毁检测结果进行融合处理,解决了因卷积层数累积所导致的损毁边界模糊问题。总体上,本文提出的建筑物立面损毁检测方法能够从复杂的震后建筑物立面背景中有效提取出边界清晰的损毁信息,并有效提升了Mask R-CNN模型对建筑物立面损毁信息的检测能力,为震后建筑物全方位精细化损毁检测提供了重要的地面技术手段。

参考文献 (15)

目录

    /

    返回文章
    返回