地理本体驱动的遥感影像面向对象分析方法

顾海燕, 李海涛, 闫利, 韩颜顺, 余凡, 杨懿, 刘正军

顾海燕, 李海涛, 闫利, 韩颜顺, 余凡, 杨懿, 刘正军. 地理本体驱动的遥感影像面向对象分析方法[J]. 武汉大学学报 ( 信息科学版), 2018, 43(1): 31-36. DOI: 10.13203/j.whugis20150468
引用本文: 顾海燕, 李海涛, 闫利, 韩颜顺, 余凡, 杨懿, 刘正军. 地理本体驱动的遥感影像面向对象分析方法[J]. 武汉大学学报 ( 信息科学版), 2018, 43(1): 31-36. DOI: 10.13203/j.whugis20150468
GU Haiyan, LI Haitao, YAN Li, HAN Yanshun, YU Fan, YANG Yi, LIU Zhengjun. A Geographic Object-Based Image Analysis Methodology Based on Geo-ontology[J]. Geomatics and Information Science of Wuhan University, 2018, 43(1): 31-36. DOI: 10.13203/j.whugis20150468
Citation: GU Haiyan, LI Haitao, YAN Li, HAN Yanshun, YU Fan, YANG Yi, LIU Zhengjun. A Geographic Object-Based Image Analysis Methodology Based on Geo-ontology[J]. Geomatics and Information Science of Wuhan University, 2018, 43(1): 31-36. DOI: 10.13203/j.whugis20150468

地理本体驱动的遥感影像面向对象分析方法

基金项目: 

国家自然科学基金 41371406

中央级公益性科研院所基本科研业务费专项资金 7771712

详细信息
    作者简介:

    顾海燕, 博士, 副研究员, 主要从事遥感影像面向对象分析的理论与方法研究。guhy@casm.ac.cn

  • 中图分类号: P237

A Geographic Object-Based Image Analysis Methodology Based on Geo-ontology

Funds: 

The National Natural Science Foundation of China 41371406

the Central Public-interest Scientific Institution Basal Research Fund 7771712

More Information
    Author Bio:

    GU Haiyan, PhD, associate professor, specializes in the theories and methods of geographic object-based image analysis. E-mail:guhy@casm.ac.cn

  • 摘要: 针对遥感影像面向对象分析技术存在的“分类过程中专家分析不同带来的分类结果不一致”问题,提出地理本体驱动的“地理实体描述-模型构建-影像对象分类”解译框架。首先,利用地理本体建立影像对象客观特征与地理专家知识的联系,实现对地理实体的描述与表达;其次,利用知识工程方法以及计算机可操作的形式化本体语言构建影像对象特征、分类器的本体模型,形成语义网络模型;最后,联合语义网络模型与专家规则实现影像对象的语义分类。地表覆盖分类实验结果表明,该方法不仅能够得到反映真实地理对象的遥感影像分类结果,而且能够掌握地理实体的语义信息,实现地表覆盖分类知识的共享与语义网络模型的复用,为遥感影像面向对象分析提供了一种全局性的解译分析框架及其方法。
    Abstract: One of the unsolved problems of Geographic Object-Based Image Analysis (GEOBIA) is "the classification results may be inconsistent by different expert in the process of image analysis". Based on geo-ontology theory, this paper presents a novel framework "geo-graphical entity description-model building-object classification" to improve the interpretation of GEOBIA results. A geographical entity is expressed formally from the perspective of geo-ontology based on the characteristics of remote sensing image and expert knowledge. The semantic network model is built by using knowledge engineering methods and computer-actionable formal ontology languages. The image objects are classified based on semantic network model and expert rule. In the case of Land-cover classification, results show that, this method can not only obtain the classification results which reflect the geographical objects, but also grasp the semantic information of the geographical entities, and realize the sharing of land-cover classification knowledge and the reusing of the semantic network model. This new approach provides a holistic framework and method for GEOBIA.
  • 近年来,随着遥感技术的发展,遥感图像分辨率不断提高,数据量急速增长,如何有效地管理利用遥感图像数据,满足用户对数据的使用需求成为研究热点。其中,从海量的遥感图像中有效地检索出感兴趣的目标或场景成为关键问题之一。

    基于内容的图像检索(content-based image retrieval,CBIR)在遥感图像领域得到广泛应用[1-3]。CBIR技术主要通过提取图像的纹理[1]、颜色[2]和形状[3]等底层特征进行检索。但底层特征难以反映高层的语义信息,容易形成较大的语义鸿沟。为了缩小检索中的语义鸿沟,采用相关反馈机制[4]、融合图像底层特征实现区域级语义特征[5]和构建视觉词袋模型[6-7]等都是有效方法。这些检索方法都是基于图像的浅层特征,浅层特征一方面需要人为地提取相关特征,检索性能容易受到干预。另一方面,高分辨率的遥感图像内容复杂,细节信息丰富,浅层特征在描述这类图像时存在一定难度。

    卷积神经网络(convolutional neural networks,CNN)通过建立多层神经网络的训练机制来模拟人脑的学习过程,在处理复杂图像时有一定优势, 特征的提取过程自动完成,减少了人为干预;底层特征通过多层抽象机制形成高层特征,能够有效地缩小语义鸿沟。本文在遥感图像的检索中引入卷积神经网络,提取卷积神经网络中的高层特征,分别比较了不同结构的卷积神经网络提取出的不同层次的CNN特征的检索性能。

    卷积神经网络是深度学习中的一种基本模型,是多层次结构的神经网络。卷积神经网络通过局部感知区域、下采样和权值共享等方式,减少了网络学习参数,提高了特征的鲁棒性和稳定性。

    卷积神经网络在手写字符识别、语音识别和图像识别等领域得到广泛应用。2012年卷积神经网络[8]首次用于ImageNet大规模视觉识别挑战赛(ImageNet large scale visual recognition challenge,ILSVRC)并获得冠军,之后卷积神经网络在图像领域受到越来越多的关注。目前大多数卷积神经网络的研究是基于文献[8]提出的网络结构进行改进,比如采用更小的局部感知区域[9]和增加网络的深度[10]等。

    卷积神经网络需要大规模的标签数据训练大量的参数,当数据库图像数目较少时,卷积神经网络的优势得不到体现。针对这种情况,可以考虑在大规模数据集ImageNet上预训练卷积神经网络来完成相应任务。文献[11-13]研究表明,在ImageNet上预训练的卷积神经网络泛化能力强,可以有效地用于SUN-397和PASCAL VOC等数据集的图像分类。文献[14-15]将ImageNet上预训练的卷积神经网络用于遥感图像分类,取得了良好的效果。在图像检索领域,文献[16-17]将ImageNet上预训练的卷积神经网络用于Oxford、Holidays和UKBench等数据集中,和传统的浅层特征相比,卷积神经网络提取的特征在图像检索中的性能得到明显提高。

    本文在ImageNet中预训练不同结构的卷积神经网络,并将预训练的网络结构和参数迁移到遥感图像数据集上,进而提取相应的高层特征进行图像检索。实验结果表明,和浅层特征相比,基于卷积神经网络高层特征的检索性能得到明显改善。

    选用四种不同结构的卷积神经网络,分别提取不同的CNN特征。文献[8]提出的卷积神经网络总共包含8层,前面5层为卷积层,后续3层为全连接层。激活函数采用目前深度网络中主流激活函数ReLU(rectification linear unit),下采样采用最大池化(max pooling)方法。全连接层中,第6层和第7层采用dropout策略防止过拟合,特征维数均为4 096维,最后一层采用softmax分类器进行分类,总共有1000个类别。将这个网络模型记为CNN-Alex。

    文献[13]分析了多种结构的网络模型,其中性能较好的CNN-M和文献[9]类似,缩小了局部感知区域,CNN-M与文献[9]的不同之处是减少了第四层卷积层的滤波器数目。文献[10]在CNN-Alex的基础上增加隐层的层数,网络的层次达到16层和19层,将这两种网络模型分别记为CNN-16和CNN-19。

    四种卷积神经网络的结构如表 1所示。滤波器数目和局部感知区域尺寸记为“num×size×size”的形式。以CNN-Alex的结构为例,第一个卷积层conv1中,滤波器数目为96,局部感知区域的尺寸为11×11。pool1~pool5是下采样层,fc6、fc7和fc8为全连接层,ReLU和分类器没有在表中显示。

    表  1  不同卷积神经网络的结构
    Table  1.  Different CNN Architectures
    CNN-Alex CNN-M CNN-16 CNN-19
    conv1 96×11×11 conv1 96×7×7 conv1-1 64×3×3
    conv1-2 64×3×3
    conv1-1 64×3×3
    conv1-2 64×3×3
    pool1 pool1 pool1 pool1
    conv2 256×5×5 conv2 256×5×5 conv2-1 128×3×3
    conv2-2 128×3×3
    conv2-1 128×3×3
    conv2-2 128×3×3
    pool2 pool2 pool2 pool2
    conv3 384×3×3 conv3 512×3×3 conv3-1 256×3×3
    conv3-2 256×3×3
    conv3-3 256×3×3
    conv3-1 256×3×3
    conv3-2 256×3×3
    conv3-3 256×3×3
    conv3-4 256×3×3
    pool3 pool3
    conv4 384×3×3 conv4 512×3×3 conv4-1 512×3×3
    conv4-2 512×3×3
    conv4-3 512×3×3
    conv4-1 512×3×3
    conv4-2 512×3×3
    conv4-3 512×3×3
    conv4-4 512×3×3
    pool4 pool4
    conv5 256×3×3 conv5 512×3×3 conv5-1 512×3×3
    conv5-2 512×3×3
    conv5-3 512×3×3
    conv5-1 512×3×3
    conv5-2 512×3×3
    conv5-3 512×3×3
    conv5-4 512×3×3
    pool5
    fc6 4096
    fc7 4096
    fc8 1000
    下载: 导出CSV 
    | 显示表格

    卷积神经网络中,最先学习到图像的底层特征,然后逐步形成中级特征,直到抽象出高层特征。高层特征能有效缩小语义鸿沟,因此选用高层特征进行检索。表 1的网络结构中fc8的输出值用于图像分类,因此不考虑fc8的输出值。pool5是对最后一个卷积层进行下采样,它对图像的描述比较全面。为了比较不同高层特征对检索结果的影响,使用pool5、fc6和fc7的输出值作为CNN特征并应用于遥感图像检索。

    通过数据集ImageNet预训练§2.1介绍的四种卷积神经网络,将其用于遥感图像检索,检索过程如图 1所示,检索步骤如下:

    图  1  检索流程
    Figure  1.  Flowchart of Retrieval

    步骤1  预训练卷积神经网络。

    预训练卷积神经网络的数据集统一采用ImageNet数据集的子集ILSVRC2012。ILSVRC2012包含1 000种图像分类,约有1.3百万张训练图片、5万验证图片和10万测试图片。

    参数更新采用随机梯度下降算法,超参数的设置如下:冲量项0.9,权值衰减0.000 5,学习率初始值为0.01,并在训练过程中动态调整。每层权重初始值服从标准差为0.01的零均值高斯分布。conv2、conv4、conv5以及全连接层的偏置初始值为1,其他层次的偏置初始值为0。

    步骤2  将预训练的网络结构和参数分别迁移到遥感图像库M和查询图像q

    遥感图像库M中每幅图像输入到预训练的网络中,提取网络后面层次(pool5或者fc6或者fc7)的输出值作为CNN特征,形成遥感图像CNN特征库。pool5层是对最后一个卷积层进行最大池化后的结果,fc6和fc7的输出结果为:

    $$ {\mathit{\boldsymbol{Y}}_k} = r\left( {{\mathit{\boldsymbol{W}}_k} \times {\mathit{\boldsymbol{Y}}_{k-1}} + {\mathit{\boldsymbol{B}}_k}} \right) $$ (1)

    式中,Yk代表第k层的输出值;Yk-1代表第k-1层的输出值;WkBk分别代表第k层训练得到的权重和偏置,这里k取值为6和7。激活函数r为ReLU函数。

    查询图像q输入到预训练的网络中,提取pool5或者fc6或者fc7的输出值作为查询图像的高层特征,记为q-CNN特征。

    步骤3  分别对CNN特征库和q的特征q-CNN进行归一化操作。

    归一化过程采用常用的高斯方法。将CNN特征库看作是一个矩阵,图像库中的m幅图像用{I1I2,…,Ii, …,Im}表示,一幅图像Ii的某个l维特征向量表示为:

    Fi=[fi1 fi2fijfil]

    式中,fijFi的第j个特征元素,将图像库中所有图像的特征向量看成一个大小为m×l的矩阵FF的每一行是长度为l的特征序列。计算F每一行特征分量对应的平均值μi和标准差σi,通过式(2)将特征向量进行归一化和平移,使得绝大部分的值在[0, 1]范围。

    $$ f_i^*f = \frac{{1 + \left( {{f_{ij}}-\mu } \right)/3{\sigma _i}}}{2} $$ (2)

    q的特征向量q-CNN为:

    Fq=[fq1 fq2fqjfql]

    根据高斯方法对Fq进行归一化和平移,使得绝大部分值在[0, 1]范围。

    步骤4  计算q和M中图像的相似度,按需求返回最相似的n幅图像。

    根据欧氏距离计算q与M中图像的相似度,得到q和M中图像的一系列相似度,并按需求返回距离最小,即最相似的n幅图像。

    预训练卷积神经网络采用ILSVRC2012数据集,使用VGG小组开发的MatConvNet[18]提取预训练网络模型,并将UC-Merced[19]和WHU-RS[20]作为目标数据集。UC-Merced收集了航空正射图像,总共21类场景,每类有100幅图像。WHU-RS收集了从Google Earth下载的图像,总共19类场景,每类有50幅图像。图 2第1行显示UC-Merced示例图像,第2行显示WHU-RS示例图像。

    图  2  UC-Merced和WHU-RS示例图像
    Figure  2.  Examples of the UC-Merced Dataset and the WHU-RS Dataset

    为了评价检索的有效性,实验计算了图像的平均准确率(mean average precision, mAP)和平均归一化修改检索等级(average normalize modified retrieval rank,ANMRR)[6],mAP值越大,检索的平均准确率越高;ANMRR取值越小,表示检索出来的相关图像越靠前。实验中还比较了采用图像检索中应用广泛的性能评价准则查准率-查全率曲线。

    表 2表 3分别显示了UC-Merced和WHU-RS数据集中不同特征检索图像的mAP值。由表 2表 3可以看出,每种网络的fc6对应的mAP值在3层中都最好。4种网络结构中,CNN-M、CNN-16和CNN-19都在CNN-Alex上进行改进,三者的mAP值也相应得到提高。

    表  2  UC-Merced不同特征的mAP /%
    Table  2.  mAPs for Different Features on the UC-Merced Dataset/%
    类别 pool5 fc6 fc7
    CNN-Alex 45.9 52.4 49.3
    CNN-M 50.6 55.8 54.9
    CNN-16 53.6 55.3 53.3
    CNN-19 52.3 54.6 52.0
    BoVW[6] 30.2
    下载: 导出CSV 
    | 显示表格
    表  3  WHU-RS不同特征的mAP/ %
    Table  3.  mAPs for Different Features on the WHU-RS Dataset/%
    类别 pool5 fc6 fc7
    CNN-Alex 55.1 62.3 62.2
    CNN-M 59.2 65.6 64.6
    CNN-16 58.1 64.5 63.3
    CNN-19 56.6 62.5 60.8
    BoVW [6] 38.9
    下载: 导出CSV 
    | 显示表格

    文献[6]使用视觉词袋(bag of visual words,BoVW)进行遥感图像检索,并取得良好的性能。表 2中,CNN特征最差的mAP值(CNN-Alex中的pool5)比BoVW的mAP值提高了15.7%,最好的mAP值(CNN-M中的fc6)比BoVW的mAP值提高了25.6%。表 3中,CNN特征最差的mAP值(CNN-Alex中的pool5)比BoVW的mAP值提高了16.2%,最好的mAP(CNN-M中的fc6)比BoVW的mAP值提高了26.7%。可见遥感图像检索中,与采用BoVW的方法相比,采用CNN特征明显改善图像的检索性能。由于CNN特征中fc6对应的结果最好,因此后面实验中,选用fc6的输出结果。并将4种网络中fc6的输出值分别记为CNN-Alex特征、CNN-M特征、CNN-16特征和CNN-19特征。

    图 3图 4分别显示了UC-Merced和WHU-RS数据集中不同类别图像的检索结果。由图 3可以看出,UC-Merced中每类图像CNN特征的mAP值都优于BoVW的mAP值。四种CNN特征的mAP值都比较接近,其中CNN-Alex特征检索性能相对较差,CNN-M特征在大多数类别中的检索性能都比较好,CNN-16特征和CNN-19特征应用于遥感图像检索时,有些类别图像检索性能突出,比如海港和立交桥;而有些类别图像检索性能表现较差,比如棒球内场,从而导致CNN-16和CNN-19的平均mAP值低于CNN-M。

    图  3  UC-Merced每类图像不同特征的mAP
    Figure  3.  Per Class mAPs for Different Features on the UC-Merced Dataset
    图  4  WHU-RS每类图像不同特征的mAP
    Figure  4.  Per Class mAPs for Different Features on the WHU-RS Dataset

    图 4图 3结果比较类似。另外,从图 4中可以看出,在WHU-RS数据集中,对于绝大多数类别图像来说,用CNN特征检索的mAP值优于用BoVW进行检索的mAP值。但是对于有些图像类别,使用BoVW和使用CNN特征的检索性能接近,甚至优于CNN特征(比如机场和牧场),这可能与此类图像与ImageNet中图像相差较大,导致泛化能力降低有关。

    表 4比较了UC-Merced和WHU-RS数据集中不同特征的特征维数和ANMRR值。4种CNN特征中,以CNN-M特征的ANMRR值最小,即检索的相关图像排序更靠前。文献[1]是基于全局形态纹理描述子的遥感图像检索,它的ANMRR值为0.575,只比文献[6]减少了1.6%,表明仅在浅层特征的基础上进行改进对检索性能的提高幅度较小。

    表  4  特征维数和ANMRR的比较
    Table  4.  Feature Dimensions and ANMRRs for Different Features
    类别 特征维数 ANMRR
    (UC-Merced)
    ANMRR
    (WHU-RS)
    CNN-Alex 4 096 0.405 0.308
    CNN-M 4 096 0.370 0.278
    CNN-16 4 096 0.374 0.291
    CNN-19 4 096 0.380 0.308
    BoVW [6] 150 0.601 0.525
    BoVW [7] 15 000 0.591 0.492
    文献[1] 62 0.575 -
    下载: 导出CSV 
    | 显示表格

    与文献[1, 6]相比,虽然CNN特征维数较高,但是CNN特征的ANMRR值明显优于浅层特征的ANMRR值。以UC-Merced为例,CNN特征中最糟糕的结果(CNN-Alex特征的ANMRR值)比BoVW和全局形态纹理描述子的结果分别降低了18.6%和17%,CNN特征中最好的结果(CNN-M特征的ANMRR值)比BoVW和全局形态纹理描述子的结果分别降低了22.1%和20.5%。这表明通过预训练的卷积神经网络提取遥感图像中的CNN特征检索到的相关图像排序更靠前。

    图 5比较了UC-Merced和WHU-RS中不同特征的查准率-查全率曲线。从图 5可以看出,CNN特征的检索效果优于BoVW的检索效果。对于BoVW而言,当返回图像数目由2逐步增大到20时,检索性能明显降低。而CNN特征检索的效果则更稳定,即使返回的图像数目较多,曲线下降的速率仍然比较平缓。对于四种CNN特征而言,当检索返回图像数目较少时,四种CNN特征的结果比较接近。图 5(a)中,随着返回图像数目的增多,3种改进的CNN特征的检索性能优于CNN-Alex特征,其中以CNN-M特征的检索效果最好。图 5(b)中,CNN-Alex特征和CNN-19特征的检索性能很接近,CNN-M特征的优势更明显。

    图  5  UC-Merced和WHU-RS数据集查准率-查全率曲线
    Figure  5.  Precision-Recall Curves for Different Features on the UC-Merced Dataset and WHU-RS Dataset

    一系列实验结果可以看出,从ImageNet数据集上预训练的卷积神经网络提取遥感图像的CNN特征,用于图像检索能够有效提高检索性能。CNN特征在mAP、ANMRR和查准率-查全率曲线上优于传统的基于浅层特征的检索方法。

    ImageNet数据集规模大,基于其训练出来的网络具有较强的泛化能力,可以有效地迁移到遥感图像数据集中。本文将ImageNet数据集上预训练的四种卷积神经网络(CNN-Alex、CNN-M、CNN-16和CNN-19)用于遥感图像检索,提取遥感图像pool5、fc6和fc7三层的输出值作为CNN特征。通过UC-Merced和WHU-RS数据集上的一系列实验结果表明:pool5、fc6和fc7三层中,fc6的检索结果最好;4种网络中,CNN-M的检索性能更突出。与浅层特征相比,CNN特征检索的图像准确率更高,相关图像排序更靠前;当返回图像数目增多时,CNN特征的检索结果更稳定。以UC-Merced数据集为例,CNN特征mAP值提高的最小幅度为15.7%,最大幅度为25.6%;ANMRR值减少的最小幅度为17%,最大幅度为22.1%。因此,将预训练的卷积神经网络用于提取遥感图像的CNN特征能够有效地改进遥感图像的检索性能。下一步考虑通过数据增强等方式增加遥感图像的数量,在遥感图像库中训练卷积神经网络来实现图像的分类和检索等工作。

  • 图  1   基于地理本体的GEOBIA框架

    Figure  1.   Framework of GEOBIA Based Geo-ontology

    图  2   WorldView-2融合影像(真彩色)

    Figure  2.   Fusion Image of WorldView-2

    图  3   地表覆盖实体概念本体

    Figure  3.   Concept Model of Land Cover Entity

    图  4   决策树模型

    Figure  4.   Decision Tree Model

    图  5   影像分类图

    Figure  5.   Classification Result

    表  1   精度评价对比表/%

    Table  1   Overall Accuracy/%

    地表覆盖类型 依托地理本体框架 不依托地理本体框架
    生产精度 用户精度 生产精度 用户精度
    耕地 96.55 93.33 87.10 90.00
    园地 90.00 90.00 93.10 90.00
    林地 96.67 96.67 100.00 90.00
    草地 87.50 93.33 77.14 90.00
    房屋 83.33 100.00 74.29 86.67
    道路 92.00 76.67 83.33 66.67
    裸露地表 87.50 70.00 66.67 60.00
    总体 总体精度=90.53%,
    Kappa系数=0.89
    总体精度=84.21%,
    Kappa系数=0.81
    下载: 导出CSV
  • [1]

    Blaschke T. Object Based Image Analysis for Remote Sensing[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2010, 65(1):2-16 doi: 10.1016/j.isprsjprs.2009.06.004

    [2]

    Blaschke T, Hay G J, Kelly M, et al. Geographic Object-based Image Analysis:a New Paradigm in Remote Sensing and Geographic Information Science[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2014, 87(1):180-191 https://www.sciencedirect.com/science/article/pii/S0924271613002220

    [3]

    Belgiu M, Tomljenovic I, Lampoltshammer T J, et al. Ontology-based Classification of Building Types Detected From Airborne Laser Scanning Data[J]. Remote Sensing, 2014, 6(2):1347-1366 doi: 10.3390/rs6021347

    [4]

    Belgiu M, Hofer B, Hofmann P. Coupling Formalized Knowledge Bases with Object-based Image Analysis[J]. Remote Sensing Letters, 2014, 5(6):530-538 doi: 10.1080/2150704X.2014.930563

    [5]

    Arvor D, Durieux L, Andres S, et al. Advances in Geographic Object-Based Image Analysis with Ontologies:A Review of main Contributions and Limitations from a Remote Sensing Perspective[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2013, 82(8):125-137

    [6]

    Lüscher P, Weibel R, Burghardt D. Integrating Ontological Modelling and Bayesian Inference for Pattern Classification in Topographic Vector Data[J]. Computers Environment and Urban Systems, 2009, 33(5):363-374 doi: 10.1016/j.compenvurbsys.2009.07.005

    [7]

    Gruber T R. A Translation Approach to Portable Ontology Specifications[J]. Knowledge Acquisition, 1993, 5(2):199-220 doi: 10.1006/knac.1993.1008

    [8]

    Andres S, Arvor D, Pierkot C. Towards an Ontological Approach for Classifying Remote Sensing Images[C]. Proceedings of the Signal Image Technology and Internet Based Systems (SITIS), 2012 Eighth International Conference, Naples, Italy, 2012 http://ieeexplore.ieee.org/document/6395176/

    [9]

    Jesús M A J, Luis D, José A P F. A Framework for Ocean Satellite Image Classification Based on Ontologies[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2013, 6(2):1048-1063 doi: 10.1109/JSTARS.2012.2217479

    [10]

    Dejrriri K, Malki M. Object-based Image Analysis and Data Mining for Building Ontology of Informal Urban Settlements[C]. Proceedings of the SPIE Remote Sensing, International Society for Optics and Photonics, Edinburgh, UK, 2012 doi: 10.1117/12.974444

    [11]

    Forestier G, Puissant A, Wemmert C, et al. Knowledge-based Region Labeling for Remote Sensing Image Interpretation[J]. Computers Environment and Urban Systems, 2012, 36(5):470-480 doi: 10.1016/j.compenvurbsys.2012.01.003

    [12]

    Kyzirakos K, Karpathiotakis M, Garbis G, et al. Wildfire Monitoring Using Satellite Images, Ontologies and Linked Geospatial Data[J]. Web Semantics Science Services and Agents on the World Wide Web, 2014, 24(4):18-26 https://www.sciencedirect.com/science/article/pii/S1570826814000031

    [13] 崔巍, 汤世明, 李荣, 等.用地理本体和相对高程识别遥感对象的方法研究[J].武汉理工大学学报·交通科学与工程版, 2013, 37(4):695-698 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=whjtkjdxxb201304006

    Cui Wei, Tang Shiming, Li Rong, et al. A Method of Identifying Remote Sensing Objects by Using Geo-ontology and Relative Elevation[J]. Journal of Wuhan university of technology (Transportation Science & Engineering), 2013, 37(4):695-698 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=whjtkjdxxb201304006

    [14] 张莹.地理本体的研究——研究进展与应用[J].测绘标准化, 2014, 30(2):24-27 http://www.cnki.com.cn/Article/CJFDTOTAL-DXQY200603010.htm

    Zhang Ying. Study on Geo-ontology Progress and Application[J]. Standardization of Surveying and Mapping, 2014, 30(2):24-27 http://www.cnki.com.cn/Article/CJFDTOTAL-DXQY200603010.htm

    [15] 魏圆圆. 基于本体论的农业知识建模及推理研究[D]. 安徽: 中国科学技术大学, 2011 http://cdmd.cnki.com.cn/Article/CDMD-10358-1012287195.htm

    Wei Yuanyuan. Research of Ontology-based Agricultural Knowledge Modeling and Reasoning[D]. Anhui: University of Science and Technology of China, 2011. http://cdmd.cnki.com.cn/Article/CDMD-10358-1012287195.htm

    [16]

    Tonjrs R, Glowe S, Buckner J, et al. Knowledge-based Interpretation of RS Images Using Semantic Nets[J]. Photogrammetric Engineering & Remote Sensing, 1999, 65(7):811-822 http://dialnet.unirioja.es/servlet/articulo?codigo=484964

    [17]

    Yang Y, Li H T, Han Y S, et al. High Resolution Remote Sensing Image Segmentation Based on Graph Theory and Fractal Net Evolution Approach[J]. ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2015, XL-7/W4:197-201 doi: 10.5194/isprsarchives-XL-7-W4-197-2015

  • 期刊类型引用(13)

    1. 冯晓亮,陈欢,李厚芝. 不同观测环境中的多模GNSS数据质量自动化检测方法. 测绘工程. 2024(06): 56-61 . 百度学术
    2. 刘嘉伟,孙保琪,韩蕊,张喆,王侃,袁海波,杨旭海. GNSS多系统RTK授时性能分析. 导航定位与授时. 2023(03): 49-58 . 百度学术
    3. 王浩浩,郝明,庄文泉. GNSS实时卫星钟差估计在地震监测中的应用. 导航定位与授时. 2023(03): 108-116 . 百度学术
    4. 周长江,余海锋,王林伟,雷云平,岳彩亚. 无频间钟偏差改正的BDS-2三频非组合PPP随机模型优化. 测绘通报. 2023(12): 164-168 . 百度学术
    5. 潘丽静,刘翔,夏川茹,王雷雷. GNSS精密卫星钟差实时估计与分析. 城市勘测. 2021(06): 73-76 . 百度学术
    6. 郭磊,王甫红,桑吉章,张万威. 一种新的利用历元间位置变化量约束的GNSS导航算法. 武汉大学学报(信息科学版). 2020(01): 21-27 . 百度学术
    7. 陶钧,张柔. GPS/BeiDou/Galileo/GLONASS实时精密卫星钟差估计. 测绘地理信息. 2020(03): 102-106 . 百度学术
    8. 黄观文,王浩浩,谢威,曹钰. GNSS实时卫星钟差估计技术进展. 导航定位与授时. 2020(05): 1-9 . 百度学术
    9. 张浩,赵兴旺,陈佩文,谢毅. GPS/BDS卫星钟差融合解算模型及精度分析. 合肥工业大学学报(自然科学版). 2020(09): 1192-1196 . 百度学术
    10. 叶珍,李浩军. GNSS卫星钟差估计与结果分析. 导航定位与授时. 2019(03): 88-94 . 百度学术
    11. 盛剑锋,张彩红,谭凯. 一种全球导航卫星系统钟差估计优化方案的量化研究. 科学技术与工程. 2019(14): 14-21 . 百度学术
    12. 王尔申,赵珩,曲萍萍,庞涛,孙军. 基于拉格朗日插值法的卫星导航空间信号精度评估算法. 沈阳航空航天大学学报. 2019(04): 43-48 . 百度学术
    13. 李云,崔文刚. 精密单点定位技术发展及应用. 科学技术与工程. 2019(27): 1-11 . 百度学术

    其他类型引用(10)

图(5)  /  表(1)
计量
  • 文章访问数:  1983
  • HTML全文浏览量:  207
  • PDF下载量:  469
  • 被引次数: 23
出版历程
  • 收稿日期:  2016-07-17
  • 发布日期:  2018-01-04

目录

/

返回文章
返回