面向机器阅读的地图名称注记类别识别方法

任福, 侯宛玥

任福, 侯宛玥. 面向机器阅读的地图名称注记类别识别方法[J]. 武汉大学学报 ( 信息科学版), 2020, 45(2): 273-280. DOI: 10.13203/j.whugis20180503
引用本文: 任福, 侯宛玥. 面向机器阅读的地图名称注记类别识别方法[J]. 武汉大学学报 ( 信息科学版), 2020, 45(2): 273-280. DOI: 10.13203/j.whugis20180503
REN Fu, HOU Wanyue. Identification Method of Map Name Annotation Category for Machine Reading[J]. Geomatics and Information Science of Wuhan University, 2020, 45(2): 273-280. DOI: 10.13203/j.whugis20180503
Citation: REN Fu, HOU Wanyue. Identification Method of Map Name Annotation Category for Machine Reading[J]. Geomatics and Information Science of Wuhan University, 2020, 45(2): 273-280. DOI: 10.13203/j.whugis20180503

面向机器阅读的地图名称注记类别识别方法

基金项目: 

国家自然科学基金 41571438

国家重点研发计划 2016YFC0803106

详细信息
    作者简介:

    任福, 博士, 教授, 主要从事新媒体地图学和智能制图研究。renfu@whu.edu.cn

    通讯作者:

    侯宛玥, 硕士生。houwanyue@whu.edu.cn

  • 中图分类号: P209

Identification Method of Map Name Annotation Category for Machine Reading

Funds: 

The National Natural Science Foundation of China 41571438

the National Key Research and Development Program of China 2016YFC0803106

More Information
    Author Bio:

    REN Fu, PhD, professor, specializes in new media cartography and intelligent mapping. renfu@whu.edu.cn

    Corresponding author:

    HOU Wanyue, postgraduate. houwanyue@whu.edu.cn

  • 摘要: 地图在人们的生产生活中发挥着重要作用,地图注记中蕴含大量信息,识别地图名称注记类别对未来计算机阅读地图以及进一步绘制地图具有重大意义。近年来,热门的深度学习技术尤其是卷积神经网络对解决图像分类问题具有良好效果,使用训练集对卷积神经网络进行训练,神经网络模型可以提取出数据集图片中的特征,并不断调整模型参数直到训练完成。以谷歌的开源框架TensorFlow作为实验的深度学习平台,对多部地图集的多份注记数据集进行智能分类研究,从地图集中人工获取注记图片作为样本数据集,构建卷积神经网络模型并尝试混合训练和分开训练两种方式。实验表明,混合训练方式获得的模型表现更加出色。
    Abstract: Maps play an important role in people's production and life. There is a lot of information in annotations. Identifying map name annotation categories is of great significance for computer reading maps and further drawing maps in the future. Recently, popular deep learning technologies, especially convolutional neural networks, have a good effect on solving image classification problems. Training sets are used to train deep neural networks, and deep neural networks can extract the features of the data set pictures themselves and continue to adjust model parameters until the training is completed. This paper uses Google's open source framework TensorFlow as the experimental deep learning platform to conduct intelligent classification research on multiple annotation datasets of multiple Atlases. Manually obtain annotation images from the Atlas as sample datasets to construct a convolutional neural network model and try to use two methods of mixed training and separate training to train the models. Experiments show that the model obtained by the mixed training method performs better.
  • 在直线、平面拟合、空间直角坐标变换、自回归模型求解中,系数矩阵和右端观测量由随机和非随机元素组成,且同一随机元素会在不同的位置出现[1-4]。常用的变量含误差(errors-in-variables,EIV)模型及相应的整体最小二乘(total least squares,TLS)方法假设系数阵中所有元素含误差。因此,顾及增广误差矩阵元素的随机特性及其相互关系的结构EIV(structured EIV,SEIV)模型和结构加权整体最小二乘(structured weighted TLS,SWTLS)方法应运而生[5-10]。文献[5]采用极大似然估计方法从含有误差的时间序列数据中确定动态线性系统的参数,被认为是SWTLS问题研究的开端。文献[6]定义了结构整体最小二乘(structured TLS,STLS)这一术语,并将其转换为非线性广义奇异值分解问题求解。文献[7]将结构增广误差矩阵用其中的独立随机元素表示,并命名为约束TLS方法。对于某些列为固定元素而另外一些列为随机元素的混合LS-TLS问题,文献[8]引入正交三角分解计算模型参数。对于误差为非等权相关的情形,文献[9]发展了WLS-WTLS的迭代算法。文献[10]将SEIV模型用部分EIV(partial EIV,PEIV)模型表达,在加权最小二乘准则下推导了参数估计的Gauss-Newton型迭代算法,并进一步给出了参数的一阶近似方差、非线性信赖域区间及偏差。文献[11]给出了PEIV模型的两种迭代算法,其计算效率与系数矩阵中随机元素的数量有关。文献[12]提出了顾及系数阵元素和右端向量相关的广义PEIV模型。文献[13]将系数误差矩阵表示成已知矩阵和独立误差向量的乘积,推导了附有线性和二次约束的STLS问题的迭代算法。文献[14]和文献[15]采用变量投影法将增广系数矩阵表示成仿射结构矩阵与独立随机变量的乘积,然后将STLS问题转换为非线性等式约束优化问题求解。文献[16]研究了含多个右端观测向量的STLS问题。文献[17]提出了结构整体最小范数(structured total least norm,STLN)方法,这一方法可以最小化误差向量的范数,是STLS问题的重要拓展[17-18]。文献[19-20]研究了STLN问题的快速算法。文献[21]将STLN拓展到系数阵和观测向量具有共同元素的情形。针对自回归(auto-regression, AR)模型这一特定STLS问题,文献[3-4]提出了两种新解法。

    在STLS算法推导中,不同文献使用了不同的平差准则,其差异在于是否考虑独立误差的重复次数。如二维坐标转换中,源系统的纵横坐标值在系数矩阵中出现了2次,而目标系统的纵横坐标值在右端向量中只出现了1次。文献[1,7,10,13-15]给出的平差准则未考虑重复次数,而文献[3-4,17,21]均考虑了重复次数。不同的平差准则必定会得到不同的平差结果,其参数估值在统计意义上孰优孰劣,目前尚未给出明确结果。本文从函数模型和数值模拟两方面入手,证明了不考虑独立误差元素重复次数的平差准则能够得到统计意义下更优的解。

    EIV模型的函数表达式为[1]

    y+ey=A+EAx (1a)

    式中,yey分别表示n维观测向量及其误差;AEA分别表示n×m维系数矩阵及其误差矩阵;xm维参数向量。误差向量的随机模型为:

    e=eAey~00,σ02Qe=00,σ02QAAQAyQyAQyy  (1b)

    式中,eA=vecEA,vec表示矩阵向量化算子,即将n×m维矩阵的每一列从左至右叠加成一个nm维列向量;σ02是单位权方差;QAAQyy分别是eAey的对称正定协因数矩阵;QyA=QAyT表示两者的协因数矩阵。当向量e的协因数矩阵Qe可逆时,采用WTLS准则求参数的最优估值:

    Φe=eTPee (2)

    式中,Pe=Qe-1e的权矩阵。当系数矩阵具有某种结构时,Qe为秩亏矩阵无凯利逆。许多学者将EIV函数模型进行改化,一般是从结构误差矩阵或增广误差矩阵中提取独立误差向量,进一步构造目标函数求解。常用的几种EIV模型修正方法如下:

    1) PEIV模型及其平差准则。PEIV模型选取系数阵中独立随机量的真值a¯作为待求量,其函数模型为[10]

    y=xTInh+Ma¯+ey (3a)
    a=a¯+ea (3b)

    式中,a是系数矩阵中随机元素所构成的t维列向量;a¯ea分别是相应的真值和误差向量;In表示n维单位矩阵;h是已知的nm维常数向量,其元素包含系数阵中的非随机元素;Mnm×t维常数矩阵,其形式由系数矩阵中非随机元素的个数及元素间的相关性确定。若ay相互独立[10],即cov(ea,ey)=0,且两者的方差矩阵为D(ea)=σ02ω-1,D(ey)=σ02W-1,其中ωW分别为eaey的权矩阵。相应的平差准则为:

    Φa¯,x=eaTωea+eyTWey (4)

    可见PEIV的平差准则中没有考虑独立随机误差的重复次数。如果将eaey组合成独立随机误差向量γ=eaTeyTT,权矩阵Pγ=diag(ω,W)=(diag(ω-1,W-1))-1,则平差准则式(4)可以写为:

    Φ(a¯,x)=γTPγγ (5)

    因此PEIV模型的SWTLS解是令独立随机误差的加权平方和最小的参数估值。文献[12]中的GPEIV模型、文献[13]中约束结构SWTLS方法和文献[14-15]中的变量投影法,其本质上都是采用式(5)所示的平差准则。

    2) STLN模型及其平差准则。STLN方法是定义一个与参数x相关的矩阵X,提取系数矩阵中的独立随机误差ea,使下式成立[17]

    Xea=EAx (6)

    联立式(1a)和式(6),将观测值残差r表达成系数阵独立误差ea和参数x的函数:

    r(ea,x)=-ey=y-Ax-Xea (7)

    将式(7)在eax的近似值处线性化,舍去二次项后得到线性模型,然后采用下列平差准则[17]

    Φea,x=0.5eyTey+0.5eaTDa2 (8)

    式中,Da=diagd1,d2,,dt,dii=1,2,,t)表示ea中的第i个元素在误差矩阵EA中重复出现的次数。尽管STLN 方法没有考虑误差的权值,但可以很方便地将观测误差的权纳入平差准则。仍令γ=eaTeyTT,定义Ds=diagDa,In,由于式(8)中常数项对求极值无影响,则平差准则式(8)等价于:

    Φx=γTDs2γ (9)

    可见,STLN方法考虑了独立误差ea的重复次数,且以重复次数的平方将独立误差纳入平差模型。

    3) 虚拟误差模型及其平差准则。文献[3]以AR模型参数估计为背景,将式(1a)所示的EIV模型在观测值的近似值处线性化。设系数阵真值A˜的近似值为A0,改正数为A,参数x的近似值为x0,改正数为x,则线性化方程为:

    v=A0x0+A0x+Ax0-y (10)

    式中,v表示y对应的改正数。然后通过矩阵等价变换得到Ax0=A10A20xBv,A10A20表示由x0按照一定规则构造的近似矩阵;xB表示设计矩阵中独立观测值对应的改正数向量。将式(10)化为:

    v=In-A20-1A0x+In-A20-1A10xB-In-A20-1y-A0x0 (11)

    组成虚拟观测值误差方程为:

    vB=xB (12)

    联立式(11)和式(12)得到:

    vg=Bgxg-lg (13)

    式中,vg为所有随机观测值改正数向量;Bg为等效设计矩阵;xg为所有待估参数和虚拟参数的改正数;lg表示y-A0x0的线性变换[3]。采用如下平差准则:

    Φx=vgTPgvg (14)

    式中,vg实际上是EA|ey中的独立误差向量γPg=DgP由两部分组成,其中Dg=diagd1,d2,,dt+n,dii=1,2,,t+n,且t+n为独立误差的个数)表示vg中的第i个元素在(EA|ey)中的重复次数,P为观测值向量的权矩阵。可见,虚拟误差模型解AR模型这一典型SWTLS问题考虑了重复次数。与STLN方法的差异在于,它采用的是重复次数本身,而不是STLN中重复次数的平方。

    上述3种典型的STLS方法采用了不同的平差准则,不同的平差准则一定会得到不同的平差结果。为了比较不同准则下的平差结果,下面将上述3种典型的平差准则下的解纳入到一个统一的平差模型中。

    EIV模型(式(1a))又可以表示为[1]

    y-Ax-Be=0 (15)

    式中,B=xTIn-Inn×nm+n矩阵,其中为Kronecker积符号,定义为GH=gijH,其中G=gij,且H为任意矩阵。设γEA|ey中的t个独立随机误差向量,则eAey可以分别表示为:

    eA=H1γ (16a)
    ey=H2γ (16b)

    式中,H1H2分别为nm×tn×t矩阵,其元素均为常数。联立式(16a)和式(16b):

    e=eAey=H1H2γ=Hγ (17)

    将式(17)代入式(15),并令G=BH,则EIV模型可以写为:

    y-Ax-Gγ=0 (18)

    独立随机误差的随机模型为:

    Eγ=0, Dγ=σ02Qγ=σ02Pγ-1 (19)

    式中,Qγ表示γ的协因数矩阵;Pγ表示其权矩阵。令γ=γ1 γ2  γtT,且γi出现的次数为dii=1,2,,t)。定义D=diagk1,k2,,kt,组成综合权矩阵:

    Psγ=DPγ (20)

    相应的平差准则为:

    ψγ=γTPsγγ=min (21)

    易知,当ki=1时,式(21)等价于以PEIV模型为代表的准则式(5);当ki=di2时,式(21)等价于以STLN模型为代表的准则式(9);当ki=di时,式(21)等价于以虚拟误差模型为代表的准则式(14)。以结构化函数模型(18)为基础,基于平差准则式(21),构造如下Lagrange目标函数:

    φx,γ,λ=γTPsγγ-2λTy-Ax-Gγ (22)

    式中,λn维Lagrange乘子向量。令目标函数式(22)对各待定量xγλ的偏导数为0,可得:

    12φx,γ,λxx^,γ^,λ^=A+E^ATλ^=0 (23a)
    12φx,γ,λγx^,γ^,λ^=Psγγ^+GTλ^=0 (23b)
    12φx,γ,λλx^,γ^,λ^=y-Ax^-Gγ^=0 (23c)

    由式(23b)得到独立误差向量γ的估值为:

    γ^=-Psγ-1GTλ^=-QsγGTλ^ (24)

    式中,Qsγ=Psγ-1,表示综合权矩阵的逆;x^γ^λ^分别为xγλ的估值。将式(24)代入式(23c)并移项可得:

    λ^=-GQsγGT-1y-Ax^ (25)

    将式(25)代入式(23a)可以得到法方程:

    (A+E^A)T(GQsγGT)-1Ax^=(A+E^A)T(GQsγGT)-1y (26)

    则参数的估值为:

    x^=[(A+E^A)T(GQsγGT)-1A]-1(A+E^A)T(GQsγGT)-1y (27)

    由于式(26)法方程矩阵不对称,若在式(26)两端加上A+E^ATGQsγGT-1E^Ax^,那么x^可由下式估计:

    x^=[(A+E^A)T(GQsγGT)-1(A+E^A)]-1(A+E^A)T(GQsγGT)-1(y+E^Ax^) (28)

    根据上述推导过程,可以得出通用模型计算SWTLS问题的迭代步骤为:

    1) 给定AyQγ,根据γ的重复次数和不同平差准则的计入方式确定对角阵D,根据(EA|ey)的结构确定H1H2。采用式(20)计算综合权阵Psγ和对应的协因数矩阵Qsγ=Psγ-1。计算Qyy=H2QγH2T和参数的初值x^0=x^LS=ATQyy-1A-1ATQyy-1y

    2) 根据初值x^0计算矩阵BG。采用式(25)和式(24)分别计算λ^γ^,然后由式(16a)计算e^A的值,从而有E^A=ivece^A,ivecvec的逆运算,表示将nm向量恢复成n×m维矩阵;

    3) 将GQsγE^Ax^0分别代入式(27)或式(28),计算参数估值x^

    4) 如果最后两次的估值x^足够接近于给定的阈值,终止迭代。否则,转向步骤2)。

    尽管由式(18)和式(19)组成的SWTLS一般模型能通过选取不同的D矩阵获得不同准则下的迭代最优解,但无法获得参数的方差或均方误差(mean square error,MSE)等精度评定指标,只能在模拟实验中检验参数精度。由文献[22-23]可知,WTLS并不是一种新的平差方法,仅仅是LS框架下的另外一种平差模型,且经典平差理论中的Gauss-Helmert(GH)模型(附有参数的条件平差模型)是EIV模型的一个特例。因此WTLS问题的解可由非线性GH模型导出。若给定x的近似值x0γ的近似值γ0,式(18)可线性化为:

    fx,γ=y-Ax-Gγ=y-Ax0-G0γ0+fx,γxx0,γ0x+fx,γγx0,γ0γ (29)

    式中,Δx=x-x0Δγ=γ-γ0G0EA0为近似值x0γ0处的GEA的值。且有:

    fx,γxx0,γ0=-(A+EA0)=-(A+ivec(H1γ0)) (30)
    fx,γγx0,γ0=-G0=-x0TIn-InH (31)

    将式(30)和式(31)代入式(29)并作适当变换可以得到:

    A+EA0x+G0γ-y+EA0x0=0 (32)

    可见SEIV模型的线性化形式(式(32))是一个标准GH模型,该模型不再体现γ的重复次数,实际上重复次数已经由投影矩阵H表达了。重复次数体现了EIV模型的结构性,而投影矩阵H正是描述上述结构性的量。根据经典LS理论,其平差准则应为:

    Φγ,x=γTPγγ (33)

    因此,从SWTLS问题的线性化形式证明了其平差准则应满足式(33)。由线性化模型式(32)得到的最小二乘解是在给定x0γ0情形下的一个近似解,为了得到更严密的解,将式(32)进一步表达为:

    l=A+EA0x+G0γ+G0γ0 (34)

    式中,l=y-Ax0。为了与§2中符号一致,记Psγ=ItPγ=PγItt维单位矩阵)。根据式(34)及平差准则式(33),构造如下Lagrange乘子函数:

    min:φx,γ,λ=γ0+γTPsγγ0+γ+2λTl-A+EA0x-G0γ-G0γ0 (35)

    分别求φx,γxγλ的偏导数,并令其值为0,可得:

    12φx,γx=-A+EA0Tλ=0 (36)
    12φx,γγ=Psγγ0+γ-G0Tλ=0 (37)
    12φx,γλ=l-A+EA0x-G0γ-G0γ0=0 (38)

    由式(37)可得:

    γ=QsγG0Tλ-γ0  (39)

    将式(39)代入式(38)得:

    l-A+EA0x-G0QsγG0Tλ=0 (40)

    由式(40)可得Lagrange乘子向量为:

    λ=G0QsγG0T-1l-A+EA0x (41)

    式(40)两边同乘以A+EA0T并顾及式(36),则有:

    x=[(A+EA0)T(G0QsγG0T)-1(A+EA0)]-1(A+EA0)T(G0QsγG0T)-1(y-Ax0) (42)
    x=x0+Δx=[(A+EA0)T(G0QsγG0T)-1(A+EA0)]-1(A+EA0)T(G0QsγG0T)-1(y+EA0x0) (43)

    由GH模型推导得到的参数估计(式(43))与§2中通用模型得到的解(式(28))具有完全相同的形式。GH模型的算法流程如下:

    1) 给定AyQγ,根据(EA|ey)的结构确定H1H2。计算Qyy=H2QγH2T和参数的初值x^0=x^LS=ATQyy-1A-1ATQyy-1y,使用上标(i(i=0,1,2,,N,N为迭代次)对不同迭代次数下的各参数进行区分,则γEA的初值分别为γ0=0EA0=ivecH1γ0=0

    2) 将x^i代入式(31)计算BiGi,由式(41)计算λi,由式(39)计算γi并更新γi=γi-1+γi,由式(30)计算EAi

    3) 由式(42)计算Δxi-1

    4) 如果Δx小于给定的阈值,则终止迭代;否则,更新xi=Δxi-1+xi-1,转向步骤2)。

    注意,若不限定式(35)中Psγ=Pγ,那么采用线性化的GH模型,在准则式(21)下,即可选取不同类型D矩阵的条件下,可以得到和§2中通用模型完全一致的解。采用GH模型进行算法推导有3个方面的意义:(1)证明了SEIV模型的平差准则中不应该再考虑重复矩阵。(2)证明了由通用模型(式(18))和线性化GH模型作为条件,在相同的平差准则下得到的参数估值是一致的。(3)将SEIV模型线性化后,便于采用协方差传播定律计算参数估值的近似精度。

    根据§2、§3的算法得到SWTLS解以后,可计算独立误差向量的估值γ^,单位权方差计算式为:

    σ^02=γ^TPsγγ^n-m (44)

    SWTLS解的近似协因数矩阵可以根据线性化GH模型的解(式(42))求解。虚拟观测值l可以写成:

    l=y-Ax0=-x0TInInvecAy=-B0Hη=-G0η (45)

    式中,η(A|y)中的t个独立随机观测向量。根据协因数传播律,向量l的协因数矩阵为:

    Qll=G0QsγG0T (46)

    实际计算中近似值x0可以用SWTLS估值x^代替,相应的残差矩阵近似值EA0用对应的估值E˜A代替。如果忽略式(42)中A˜=A+EA0这一项中A的随机性,那么可由协因数传播律得到SWTLS解的近似协因数矩阵为:

    Qx^x^=QΔxΔx=A˜TQll-1A˜-1A˜TQll-1QllQll-1A˜A˜TQll-1A˜-1=A˜TQll-1A˜-1 (47)

    从而得到SWTLS解的近似方差为:

    Dx^x^=σ^02A˜TQll-1A˜-1 (48)

    首先采用二维仿射变换实例验证算法的正确性和可行性。设第i个公共点Pi在源坐标系和目标坐标系中的坐标分别为xi,yiXi,Yi,仿射变换模型为Xi=a0+a1xi+a2yi,Yi=b0+b1xi+b2yi,其中a0b0为两个坐标系的平移量,a1a2b1b2分别表示两个坐标系之间的旋转和尺度变换参数。假设有3个或以上的公共点,仿射变换模型可以用EIV模型(式(1))表示,且有:

    A=1x1y10000001x1y11x2y20000001x2y21xnyn0000001xnyn,x=a0a1a2b0b1b2 (49)

    给定12个公共点在源坐标系中的坐标分别为(-1,1)、(1.2,-3.0)、(-2.6,3.0)、(3.0,1.5)、(-4.8,-1.0)、(5.2,0.2)、(6.0,5.5)、(-7.2,2.2)、(7.8,-2.0)、(8.5,2.2)、(-9.5,-5.0)、(10.0,-0.8),参数的真值为x˜=[10 4 -2 -10 1 3]T,根据仿射变换模型计算出12个点在目标系中的真实坐标分别为(4,-8)、(20.8,-17.8)、(-6.4,-3.6)、(19.0,-2.5)、(-7.2,-17.8)、(30.4,-4.2)、(23.0,12.5)、(-23.2,-10.6)、(45.2,-8.2)、(39.6,5.1)、(-18.0,-34.5)、(51.6,-2.4)。对所有坐标值添加方差为D48=σ02I48=I48I4848×48的单位矩阵)的随机误差。首先,不考虑系数矩阵中源坐标重复2次而目标坐标重复1次的差异,取重复矩阵D=D1=I48时,分别采用本文方法、PEIV模型[10]和变量投影法[14]进行求解,得到的参数估计结果如表1所示。

    表  1  不同平差方法的SWTLS解(D=D1
    Table  1.  SWTLS Solutions with Different Adjustment Methods (D=D1
    平差方法â0â1â2b̂0b̂1b̂2
    PEIV模型[10]10.412 0554.065 602-2.136 739-9.641 7471.116 1702.912 190
    变量投影法[14]10.412 0554.065 602-2.136 739-9.641 7471.116 1702.912 190
    本文方法10.412 0554.065 602-2.136 739-9.641 7471.116 1702.912 190
    下载: 导出CSV 
    | 显示表格

    当取D=D2=diag(4,,4,1,,1)(4和1的个数都为24)时,采用本文方法和STLN方法[17]进行求解,得到的参数估计结果如表2所示。

    表  2  不同平差方法的SWTLS解(D=D2
    Table  2.  SWTLS Solutions with Different Adjustment Methods (D=D2
    平差方法â0â1â2b̂0b̂1b̂2
    STLN方法[17]10.418 6814.056 913-2.101 082-9.639 4401.118 3362.855 364
    本文方法10.418 6814.056 913-2.101 082-9.639 4401.118 3362.855 364
    下载: 导出CSV 
    | 显示表格

    表1可以看出,由于PEIV模型[10]、变量投影法[14]均未考虑源系统中坐标的重复次数,两者的平差准则等价于本文提出的通用模型中重复矩阵取单位矩阵时的准则(式(21)),尽管三者对结构误差的处理采用了不同的函数模型,但在相同的准则下都得到了完全一致的平差结果,说明本文提出的通用平差算法是可行有效的。由表2可以看出,STLN方法[17]顾及了系数阵中随机观测值的重复次数,并且是将观测重复数的平方纳入平差模型,和本文通用模型在同样的平差准则下也得到了一致的平差结果,进一步证明了本文算法的可行性和有效性。

    为了验证不同平差准则下SWTLS解的统计性质,模拟系数阵元素和右端项含有公共元素的SEIV模型,系数阵和右端项的真值及误差的结构分别为:

    A˜|y˜=3.62-1.030.754.050.75-4.59-4.161.252.752.50-38.881.55-18.89-4.505.455.288.25-10.854.55-16.701.553.203.177.956.001.252.500.20-1.72-3.210.850.210.550.48-3.008.420.8517.501.55-6.182.19-8.014.55-2.210.1201.320.284.85-8.726.75-5.362.502.906.751.421.985.50-1.8015.003.077.20-7.932.5015.004.0617.500.456.2524.353.202.490.65-10.6532.6023.370.756.751.25-1.802.500.8515.001.5517.509.3620.2052.758.254.5524.353.2012.806.0032.607.9514.785.8710.9027.60 (50)
    EA|ey=0γ4γ30γ60γ20γ6000γ20γ30γ70000γ40000γ5γ60γ8000γ9γ700γ1000γ9γ600γ8000γ140γ100γ150γ150000γ16γ90γ17γ1700000γ2100γ190γ20γ1γ2γ3γ4γ5γ6γ7γ8γ9γ10γ11γ12γ13γ14γ15γ16γ17γ18γ19γ20γ21γ22γ23γ24γ25 (51)

    待估参数的真值为x˜=[152]T,独立误差向量γ=[γ1 γ2  γ25]T是零均值独立同分布的随机变量,其方差为Dγ=σ02I25,其中I25表示25×25阶单位矩阵,γii=1,2,,25)的重复次数di可以EA|ey的结构获得。分别采用3种平差准则计算参数的估值,准则式(21)中对应的D矩阵分别取D1=I25,D2=diag(d1,d2,,d25)=diag(1,3,1,3,,1,3,1),D3=diag(d12,d22,,d252)=diag(1,9,1,9,,1,9,1)。根据式(44)和式(48)计算单位权方差和参数估值的方差。由于参数真值已知,可以计算均方误差MSE(x^)=x^-x˜Tx^-x˜,以此来检核3种平差准则下估值的精度,并与近似方差对照。分别取误差水平σ02=0.25σ02=1进行计算。为了体现结果的统计性,将不同误差水平的实验各进行10 000次,将每次运算的结果取平均值,结果分别见表3表4

    表  3  不同平差准则下的SWTLS结果(σ02=0.25
    Table  3.  SWTLS Results Under Different Adjustment Principles (σ02=0.25
    统计项统计量D=D1D=D2D=D3
    估计参数值x̂10.999 9981.000 2810.999 975
    x̂25.002 3895.007 3595.009 953
    x̂31.999 5961.999 3201.998 190
    单位权方差σ̂020.239 7370.537 3491.463 591
    参数方差估值σ̂x129.43×10-61.72×10-55.76×10-5
    σ̂x225.23×10-49.14×10-43.19×10-3
    σ̂x328.28×10-61.60×10-55.05×10-5
    σ̂Σ25.40×10-49.47×10-43.30×10-3
    MSEm̂x129.76×10-61.10×10-51.63×10-5
    m̂x225.44×10-46.21×10-49.40×10-4
    m̂x328.50×10-69.39×10-61.42×10-5
    m̂Σ25.63×10-46.41×10-49.71×10-4
    下载: 导出CSV 
    | 显示表格
    表  4  不同平差准则下的SWTLS结果(σ02=1
    Table  4.  SWTLS Results Under Different Adjustment Principles (σ02=1
    统计项统计量D=D1D=D2D=D3
    估计参数值x̂11.000 2201.003 7701.007 659
    x̂24.997 8385.022 9635.049 989
    x̂32.000 7252.004 0002.007 714
    单位权方差σ̂020.960 3412.146 4735.839 121
    参数方差估值σ̂x123.78×10-56.87×10-52.30×10-4
    σ̂x222.09×10-33.65×10-31.27×10-2
    σ̂x323.32×10-56.41×10-52.02×10-4
    σ̂Σ22.17×10-33.78×10-31.32×10-2
    MSEm̂x124.02×10-54.50×10-56.67×10-5
    m̂x222.21×10-32.53×10-33.85×10-3
    m̂x323.53×10-53.88×10-55.82×10-5
    m̂Σ22.29×10-32.62×10-33.97×10-3
    下载: 导出CSV 
    | 显示表格

    表3可以看出,不考虑重复次数的平差准则(采用D1)获得的参数估值更接近于真值。参数各分量的MSE最小,从数值上验证了不考虑系数阵误差重复系数的平差准则是最优的。单位权方差的估值略小于真值,是由于式(43)没有考虑非线性模型线性化引入的偏差项。同理,各参数分量的方差均小于对应的MSE,原因是SEIV模型的非线性特性会引入估计偏差,方差加上偏差的平方和等于MSE。但是,对比方差和MSE的差异可知,参数3个分量的方差估值和MSE之间的差异((σ^xi2-m^xi2)/m^xi2)分别为3.38%、3.86%和2.59%,说明当误差较小时,参数方差估值和MSE的差异很小,可以作为精度评定的指标。因此,本文不再采用非线性最小二乘偏差修正或Monte Carlo模拟的思想求解偏差值[10,24]

    从上述理论分析可知,将SEIV模型线性化后,其平差准则不应顾及误差重复次数。式(44)和式(48)只适用于D为单位阵的情形。从后面两列可以看出,当平差准则中计入误差重复的次数时,单位权方差估值与真值以及参数分量的方差估值与MSE均有较大的差异。当D=D3时,单位权方差估值约为真值的6倍,方差估值约为对应MSE的3.5倍,这是由于单位权方差公式中重复计算残差平方和所致,由此进一步证明不能采用这两种平差准则用线性近似方法求单位权中误差及方差。

    表4可知,增大观测误差的方差,能够得到与表3一致的结论,进一步验证了最优平差准则应该选择重复矩阵D为单位阵。由式(48)给出的方差估值与MSE在3个分量上的偏差分别为5.97%、5.43%、5.95%,进一步证明了本文的近似精度评定方法在误差较小的情况下是可行有效的。

    结构EIV模型系数矩阵中的随机元素重复出现的次数是否应计入平差准则以及如何计入平差准则,目前尚未形成定论。本文从模型分析和数值验证两方面入手,证明重复次数不应计入平差准则。主要贡献如下:

    1)总结了已有的3种处理SEIV模型的平差准则,指出不同的平差准则会得到不同的平差结果。提出了一种通用的SWTLS平差模型,通过选取不同的综合权矩阵Psγ得到的目标函数等价于上述3种不同准则下的目标函数。采用Lagrange乘子法推导了通用模型的解并给出了计算步骤。

    2)迭代方法无法给出参数的统计性质,本文将通用模型线性化得到GH模型,从理论上分析了误差重复次数不应计入平差准则的原因。推导了GH模型的算法,证明其与通用模型得到的结果是一致的。根据误差传播律得到了参数的近似方差估值。

    3)通过实例验证了本文提出的算法与已有方法结果一致,证明了本文方法可行有效。通过模拟计算证明了不考虑误差重复次数的平差准则得到的解在MSE意义下最优,且参数的近似方差是MSE的良好近似,可以作为精度评定的指标。

  • 图  1   稀疏连接原理图

    Figure  1.   Schematic Diagram for Sparse Connection

    图  2   权值共享原理图

    Figure  2.   Schematic Diagram for Shared Weights

    图  3   5部地图集中注记示例

    Figure  3.   Examples of Annotation Dataset in Five Atlas

    图  4   卷积神经网络模型结构示意图

    Figure  4.   Schematic Diagram of Convolutional Neural Network Model

    图  5   混合训练准确率和学习率变化曲线

    Figure  5.   Accuracy Rate Curve and Learning Rate Curve of Mixed Training

    图  6   混合训练交叉熵和损失函数值变化趋势

    Figure  6.   Cross Entropy Curve and Loss Function Curve of Mixed Training

    图  7   第1层卷积层偏置项和权重的分布图

    Figure  7.   Distribution Maps of the Bias Term and Weight in the First Convolutional Layer

    图  8   第1层卷积层偏置项和权重的均值和方差变化曲线

    Figure  8.   Change Curves of the Mean Value and Variance of the Bias Term and Weight in the First Convolutional Layer

    图  9   第3层卷积层偏置项和权重的分布图

    Figure  9.   Distribution Maps of the Bias Term and Weight in the Third Convolutional Layer

    图  10   第3层卷积层偏置项和权重的均值和方差变化曲线

    Figure  10.   Change Curves of the Mean Value and Variance of the Bias Term and Weight in the Third Convolutional Layer

    图  11   分开训练准确率和学习率变化曲线

    Figure  11.   Accuracy Rate Curve and Learning Rate Curve of Separate Training

    图  12   分开训练交叉熵和损失函数值变化趋势

    Figure  12.   Cross Entropy Curve and Loss Function Curve of Separate Training

    表  1   注记图像样本分类及数量

    Table  1   Classifications and Amounts of Annotation Image Samples

    注记类别 图像数量 训练集数量 测试集数量 验证集数量
    山峰注记 503 396 63 44
    地名注记 570 450 70 50
    区域注记 570 450 70 50
    水系注记 570 450 70 50
    下载: 导出CSV
  • [1] 何宗宜, 宋鹰, 李连营.地图学[M].武汉:武汉大学出版社, 2016

    He Zongyi, Song Ying, Li Lianying. Cartography[M]. Wuhan:Wuhan University Press, 2016

    [2]

    Gevers T, Smeulders A. Color-Based Object Recognition[J]. Pattern Recognition, 1999, 32(3):453-464 doi: 10.1016/S0031-3203(98)00036-3

    [3]

    Haralick R M, Shanmugam K, Dinstein I. Textural Features for Image Classification[J]. Studies in Media and Communication, 1973, SMC-3(6):610-621 http://d.old.wanfangdata.com.cn/OAPaper/oai_doaj-articles_16d3aac51c12c1b20a2512bd82d7cd5e

    [4]

    Rautkorpi R, Iivarinen J. A Novel Shape Feature for Image Classification and Retrieval[C]. International Conference on Image Analysis and Recognition, Porto, Portugal, 2004

    [5]

    Luo Y, Yan H, Cheng X. The Summary on Description of Spatial Relation in Image[C]. 2010 International Conference on Computational Intelligence and Software Engineering, Wuhan, China, 2010

    [6]

    Chamasemani F F, Singh Y P. Multi-class Support Vector Machine (SVM) Classifiers-An Application in Hypothyroid Detection and Classification[C]. The 6th International Conference on Bio-Inspired Computing: Theories and Applications, Penang, Malaysia, 2011

    [7] 曹洪弟, 洪友堂, 张伟, 等.基于ENVI的遥感图像决策树分类[J].北京测绘, 2017, 31(2):67-71 http://d.old.wanfangdata.com.cn/Periodical/bjch201702016

    Cao Hongdi, Hong Youtang, Zhang Wei, et al. Decision Tree Classification of Remote Sensing Images Based on ENVI[J]. Beijing Surveying and Mapping, 2017, 31(2):67-71 http://d.old.wanfangdata.com.cn/Periodical/bjch201702016

    [8]

    Sun B, Du J, Gao T. Study on the Improvement of k-Nearest-Neighbor Algorithm[C]. 2009 International Conference on Artificial Intelligence and Computational Intelligence, Shanghai, China, 2009

    [9] 王双成, 杜瑞杰, 刘颖.连续属性完全贝叶斯分类器的学习与优化[J].计算机学报, 2012, 35(10):2129-2138 http://d.old.wanfangdata.com.cn/Periodical/jsjxb201210013

    Wang Shuangcheng, Du Ruijie, Liu Ying. The Learning and Optimization of Full Bayes Classifiers with Continuous Attributes[J]. Chinese Journal of Computers, 2012, 35(10):2129-2138 http://d.old.wanfangdata.com.cn/Periodical/jsjxb201210013

    [10]

    Ravindran N, Sheryl O A, Samraj A, et al. Stable and Crit Gesticulation Recognition in Children and Pregnant Women by Naïve Bayes Classification[J]. ICTACT Journal on Communication Technology, 2014, 5(4):259-264

    [11] 段萌.基于卷积神经网络的图像识别方法研究[D].郑州: 郑州大学, 2017

    Duan Meng. The Research on the Mothed of Image Recognition Based on Convolutional Neural Networks[D]. Zhengzhou: Zhengzhou University, 2017

    [12] 刘少创, 林宗坚.基于神经网络的地图数字注记识别[J].武汉大学学报·信息科学版, 1994, 19(3):194-198 http://ch.whu.edu.cn/CN/abstract/abstract3968.shtml

    Liu Shaochuang, Lin Zongjian. Digits of Map Lettering Recognition Using Back-Propagation Learning[J]. Geomatics and Information Science of Wuhan University, 1994, 19(3):194-198 http://ch.whu.edu.cn/CN/abstract/abstract3968.shtml

    [13] 杨云, 张子敬.地图数字注记识别的神经网络方法[J].测绘科学技术学报, 1997, 14(1):47-51

    Yang Yun, Zhang Zijing. Recognition of Numeric Text in Topographic Maps by Neural Network Method[J]. Journal of Geomatics Science and Technology, 1997, 14(1):47-51

    [14] 谢士杰.模糊联想记忆神经网络及其在地图数字注记识别中的应用[J].测绘科学, 1995, 20(2):20-23 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chkx199502008

    Xie Shijie. Fuzzy Associative Memory Neural Network and Its Application in Map Numeral Annotation Recognition[J]. Science of Surveying and Mapping, 1995, 20(2):20-23 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chkx199502008

    [15] 王金鹏, 孙怡, 陈强.基于正交傅里叶-梅林矩特征的HONN结构方法识别地图数字注记[J].中国图象图形学报, 2003, 8(z1):693-696 doi: 10.3969/j.issn.1006-8961.2003.z1.158

    Wang Jinpeng, Sun Yi, Chen Qiang. Recognition of Digital Annotation with Invariant HONN Based on Orthogonal Fourier-Mellin Moments[J]. Journal of Image and Graphics, 2003, 8(z1):693-696 doi: 10.3969/j.issn.1006-8961.2003.z1.158

    [16] 黎达, 李胜辉, 林大贵, 等.面向小间距地图注记的智能识别研究[J].测绘与空间地理信息, 2016, 39(2):108-111 doi: 10.3969/j.issn.1672-5867.2016.02.033

    Li Da, Li Shenghui, Lin Dagui, et al. Research on Intelligent Recognition for Map Annotations with Short Gap[J]. Geomatics & Spatial Information Technology, 2016, 39(2):108-111 doi: 10.3969/j.issn.1672-5867.2016.02.033

    [17] 沈意浪, 艾廷华, 赵荣.一种彩色栅格地图注记识别方法[J].武汉大学学报·信息科学版, 2018, 43(1):145-151 http://ch.whu.edu.cn/CN/abstract/abstract5960.shtml

    Shen Yilang, Ai Tinghua, Zhao Rong. A Method for Color Raster Map Annotation Recognition[J]. Geomatics and Information Science of Wuhan University, 2018, 43(1):145-151 http://ch.whu.edu.cn/CN/abstract/abstract5960.shtml

    [18]

    Wojna Z, Gorban A N, Lee D S, et al. Attention-Based Extraction of Structured Information from Street View Imagery[C]. The 14th IAPR International Conference on Document Analysis and Recognition, Kyoto, Japan, 2017

    [19]

    Fukushima K, Miyake S, Ito T. Neocognitron:A Neural Network Model for a Mechanism of Visual Pattern Recognition[J]. IEEE Transactions on Systems, Man and Cybernetics, 1983, SMC-13(5):826-834 doi: 10.1109/TSMC.1983.6313076

    [20]

    Sun Y, Wang X, Tang X. Deep Learning Face Representation from Predicting 10000 Classes[C]. IEEE Conference on Computer Vision and Pattern Recognition, Columbus, OH, USA, 2014

    [21] 温佩芝, 姚航, 沈嘉炜.基于卷积神经网络的石刻书法字识别方法[J].计算机工程与设计, 2018, 39(3):867-872 http://d.old.wanfangdata.com.cn/Periodical/jsjgcysj201803047

    Wen Peizhi, Yao Hang, Shen Jiawei. Recognition Method of Stone Inscription Font Based on Convolution Neural Network[J]. Computer Engineering and Design, 2018, 39(3):867-872 http://d.old.wanfangdata.com.cn/Periodical/jsjgcysj201803047

    [22] 葛芸, 江顺亮, 叶发茂, 等.基于ImageNet预训练卷积神经网络的遥感图像检索[J].武汉大学学报·信息科学版, 2018, 43(1):67-73 http://ch.whu.edu.cn/CN/abstract/abstract5948.shtml

    Ge Yun, Jiang Shunliang, Ye Famao, et al. Remote Sensing Image Retrieval Using Pre-trained Convolutional Neural Networks Based on ImageNet[J]. Geomatics and Information Science of Wuhan University, 2018, 43(1):67-73 http://ch.whu.edu.cn/CN/abstract/abstract5948.shtml

    [23]

    Karpathy A. CS231n Convolutional Neural Networks for Visual Recognition[EB/OL]. http://cs231n.github.io/neural-networks-2/, 2018

    [24]

    Deng L, Yu D. Deep Learning:Methods and Applications[J]. Foundations & Trends in Signal Processing, 2014, 7(3):197-387 http://d.old.wanfangdata.com.cn/Periodical/bjgydxxb201501009

图(12)  /  表(1)
计量
  • 文章访问数:  1305
  • HTML全文浏览量:  201
  • PDF下载量:  112
  • 被引次数: 0
出版历程
  • 收稿日期:  2019-07-28
  • 发布日期:  2020-02-04

目录

/

返回文章
返回