-
测量是历史最为悠久的学科之一。早在古埃及时代,人类就开始丈量土地,进行土地平整,建造巨大的建筑物。从古罗马输水道到都江堰水利工程,从中国黄石铜绿山矿到奥地利哈尔施塔特盐矿,这些大型水利、采矿工程通过测量进行选址、轴线定位、定向、施工放样以及维护监测[1],其测量过程离不开关键的数据处理环节,经典测量数据处理理论的建立和发展,对支撑这些工程建设起到至关重要的作用。随着现代测量的形式、数据和任务发生变化,测量数据处理理论也面临新的挑战[2]。测量数据处理本质上是统计推断的过程,在给定的随机变量概率模型下,基于样本数据对待求参数进行估计推断[3]。在传统测量场景中,数据是以几何测量数据为主,例如角度、距离、方向、全球导航卫星系统(global navigation satellite system,GNSS)坐标等,涉及的参数也是有限的,在这种情况下,随机变量的概率模型是易于描述的,经典统计推断方法即可以满足测量数据处理需求。当进入测量大数据时代时,数据和待估计的参数都变得更加泛在[4],除了关于目标几何的,还有关于目标特征的[5]。另外,由于往往需要考虑动态环境,涉及的变量数目也变得更为巨大,测量数据处理要更加智能化[6],经典测量平差也进入了广义测量数据处理阶段。
与传统的经典测量平差相比,广义测量数据处理发生了一些新的变化。其特点主要体现在以下方面:在纯几何要素上,带来的挑战主要是变量数的激增,但是随机变量的概率模型还是可以描述和解释的,因此主要是经典统计推断方法的再优化,从而发展出更加高效的概率模型和求解方法;在特征要素上,数据和参数的概率模型变得复杂,难以用可以解释的概率模型进行统计推断。一种思路是朝纯算法角度进行求解,只关心求解的计算,不涉及具体的概率建模,因此也就无法对计算的结果进行精度推断。另一种思路是仍然尝试建立随机变量的概率模型,通过使用特定结构概率模型对真实复杂的随机变量概率模型进行近似,从而实现近似概率模型下的统计推断。本文将回顾经典测量到广义测量过程的发展,阐述这一背景下测量数据处理方法的变化,梳理出从测量数据经典统计推断到现代测量数据处理的发展过程中背后的方法变化和特点。
HTML
-
近半个世纪以来,受益于空间科学、信息科学、现代光电技术、传感技术以及精密机械技术的发展,先进的工程测量仪器陆续出现,例如光电测距仪、电子经纬仪、数字水准仪等。这些先进的测量仪器极大地提升了工程测量水平。电子经纬仪、光电测距仪与数据记录装置的集成使得全站仪功能更加强大,这为工程测量提供了先进的测量工具,给工程测量带来了巨大的变化,从而改变了传统的工程测量作业方式。工程测量的应用范围越来越广[7-9],不仅研究传统工程测设理论、技术和方法,而且还延伸到国防工业建设、特种工业精密安装、环境和文物保护等领域,其服务范围涉及地面、地下、水下、太空、民用和军用等,服务的行业包括市政、交通、水利、矿山、电力、航天、航空、医疗、文化、地籍与房产等各行各业,以及公共安全和国防等领域。在现在这个大数据与人工智能时代,测量的模式、数据和任务都得到了极大的拓展,且发生了一些显著的变化。
首先,测量模式发生了变化。与传统工程测量不同,新时代背景下的测量形式呈现动态、连续和大数据量等特征。常见的3种模式的动态测量为:(1)测量平台不动,被测对象运动,即利用固定的精密测量设备测量运动的目标,观测目标的几何形状或者位置变化。(2)测量平台运动,被测对象不动,即将测量传感器安置在运动平台(如移动测量车、无人机、无人船)上,对静态目标进行观测,获取被测对象的相关信息,这是最常见的动态精密测量模式。(3)测量平台运动,被测对象也运动,即将测量传感器安置在运动平台(如移动测量车、无人机)上,跟踪观测被测对象的绝对和相对变化。
其次,测量数据发生了变化。现代传感器技术快速发展,测量传感器类型多样化逐渐提升。同时,被测对象日趋复杂,测量需求也不断提高。因此,动态精密测量需要处理的数据类型随之增加。归纳起来,测量数据主要包括位姿数据、点云数据、图像数据3种类型。位姿数据描述测量平台本身的空间运动状态,包括测量平台及传感器的位置、姿态、速度、加速度、角速度等。点云数据是观测目标对象的几何测量数据,具体体现为被测量对象的三维空间坐标。图像数据是运动平台上二维成像设备采集的图像数据,根据成像光谱的不同,主要分为灰度、红外、紫外、可见光、高光谱等图像数据。
最后,测量任务发生了变化。随着传感器的多样化、测量平台的动态化和被测对象的复杂化,测量任务发生了颠覆式变化,进入了从传统几何测量到当代融合大数据与人工智能、以多要素提取为目标的工程测量新时代。测量要素从过去的边、角、高等基本几何要素测量扩展到综合描述测量对象状态的多要素指标,例如高速公路路面的平顺度、特大桥梁的实时线形、大坝表面的裂缝等,测量成果从离散的几何点逐步变为测量对象的几何形状、特征语义,甚至是状态变化。当代工业测量通过快速获取目标对象的多源几何和非几何数据,并进行高效处理和识别,获得目标对象相关的变形、沉降、表观变化等特征信息,在此基础上对测量目标的状态进行评估和分析,为其安全运行和维护提供可靠依据。
-
从广义上讲,测量数据处理是一个统计推断的过程,通常涉及到参数估计、参数置性区间估计和假设检验等统计推断的几个方面[3]。其中,参数估计和置性区间估计对应了测量数据处理中的参数求解和精度评定,本文将统一把测量数据处理的方法纳入统计推断这一框架内描述。因为在数据处理方法的发展历程中,出现了很多新概念和新名词,它们对相同的事情使用了不同的描述方式,对理解和梳理造成一定障碍。而如果将这些方法都放在统一的基本数学框架内,人们将更容易理解不同方法的内在区别,有助于这些新方法的应用,也为发展新的数据处理方法提供统一的理论。
从数理统计的角度理解,测量数据处理的第一步是构建参数随机变量和观测随机变量的联合概率密度分布,即搭建平差数学模型;第二步是在获得观测变量的特定值后,对参数变量的概率分布进行计算分析,从而实现对参数取值和精度的推理。此处的参数是待估计量,包括经典测量平差里涉及的几何参数,也包括更加广义的工程对象的特征参数,因为测量数据处理的本质是从测量数据中计算提取感兴趣的参数值,并对提取的参数值进行精度评价。
假设观测变量为$ {\boldsymbol{X}} $,参数变量为$ {\boldsymbol{\theta }} $。通过对现实中的观测变量、参数变量的统计特征和变量间关系进行建模,获得观测变量和参数变量的联合概率密度函数$ p({\boldsymbol{X}}, {\boldsymbol{\theta }}) $。以经典测量平差问题入手,观测变量符合多元高斯正态分布。假设平差数学模型为:
式中, $ E\left({\mathrm{ }}\right) $为随机变量的期望;$ {{\boldsymbol{D}}}_{{\boldsymbol{X}}{\boldsymbol{X}}} $表示$ {\boldsymbol{X}} $的精度;$ {\boldsymbol{\varSigma }} $是协方差矩阵。联合概率密度函数$ p({\boldsymbol{X}}, {\boldsymbol{\theta }}) $可以表示为:
在给出该概率密度函数后,假设获得了观测变量$ {\boldsymbol{X}} $的取值$ {\boldsymbol{x}} $,则可以查询参数变量$ {\boldsymbol{\theta }} $的后验分布:
基于该分布函数则可以根据对应准则获取参数的取值和精度评价。例如,通过求该分布函数下参数的期望/中位数/众数,就能实现3种不同的贝叶斯估计,即后验期望/中位数/众数估计,后验众数估计也叫最大后验估计。
-
数理统计学发展历史中出现了频率学派和贝叶斯学派两大学派,依托数理统计理论的测量数据处理也同样受两类理论影响。贝叶斯学派统计和频率学派统计的主要区别在于贝叶斯统计利用了参数的先验信息,即$ p\left({\boldsymbol{\theta }}\right) $。测量数据处理中,如果将参数$ {\boldsymbol{\theta }} $认为是确定性变量,则可归为频率学派统计推断,如果将参数$ {\boldsymbol{\theta }} $认为是随机性变量,则可归为贝叶斯学派统计推断。
大部分经典的测量平差方法是属于频率学派的统计推断,即不会预先假设参数$ {\boldsymbol{\theta }} $的先验概率。例如,水准网测量中,待估计测站的高程一般没有先验信息。在概率模型建模中,式(3)中的联合概率密度函数也仅需要条件概率密度函数部分:
同样,在观测变量服从高斯分布,函数模型为线性模型($ E\left({\boldsymbol{X}}\right)={\boldsymbol{A}}{\boldsymbol{\theta }} $)的情况下,可以用最小二乘获得参数估计值。
该估计量使得正态分布情况下的似然函数最大,因此也成为最大似然估计[10]。该估计量是观测值的线性函数,因此它也符合高斯分布,可以用协方差矩阵对其精度进行描述,估计量的协方差矩阵通过误差传播律计算。
贝叶斯学派考虑了参数的随机性,加入了参数的先验概率分布。虽然两者在观念上有很大的分歧,但是当先验分布为均匀分布时,这两者对同一问题的参数估计结果也会趋同。在测量统计推断里,贝叶斯估计可用于待估计参数有先验信息的情况,例如存在虚拟观测值或者模型预测值等。
虽然贝叶斯统计推断看起来易于理解,但是得到的后验分布往往不再是标准的分布,贝叶斯估计中要计算的后验分布期望、中位数、众数等数字特征将没有显式表达式,这时候就需要一些特殊的方法计算,例如分析逼近方法、E-M方法、马尔可夫链蒙特卡洛方法等[11]。
-
假设先验信息的概率模型是准确的,基于贝叶斯估计中的后验期望估计得到的参数估计值即是无偏的。然而在很多情况中,先验信息建模的方式存在较大主观性,这往往也是频率学派质疑贝叶斯学派的一个重要内容。当先验信息不准确时,估计量的期望与真值有偏,与贝叶斯估计的初衷不符。这时可以从代数的角度进行解释[12],也就是数据处理中常常提及的正则化[13]。
测量工程中经常会碰到观测数不够或者配置不好,无法对参数带来很好约束的情况,这种问题也常称为病态问题或者是秩亏问题[14],此时经常采用正则化的方法进行处理。测量数据中的正则化一般是在最小二乘的代价函数里再添加一个正则化项,该正则化项可以是参数向量的二阶范数或者一阶范数,分别可称为L2正则化和L1正则化。
不过,正则化也可以看成对参数先验概率的一种建模。例如,L1正则化和L2正则化的求算结果也会等价于使用了拉普拉斯分布的先验概率和高斯分布的先验概率的最大后验估计结果,这两种先验概率密度函数表达式分别如下:
拉普拉斯分布先验为:
高斯分布先验为:
当先验概率偏离实际太远时,估计量的偏差就会很大。很多改进的正则化方法会根据实际问题情况采用自适应的正则化方式,也就是让先验概率更为准确,从而降低先验概率建模带来的估计偏差。
-
控制网平差是测量数据处理中的经典案例。以水准网平差为例(见图 1),有A、B、C、D 4个地面点和h1、h2、h3、h4 4个高差观测值,路线长度相同,观测中误差为$ {\sigma }_{0} $,控制网平差的任务需要根据观测值对地面点高程进行估计和精度评定。
-
经典平差中,一般是需要有足够的起算数据,本文假设A、B都为已知点,因此HC、HD为已知变量,随机变量的数目为6个,分别为HC、HD、h1、h2、h3、h4。联合概率密度可以写为:
其中,
一般情况下,不考虑高程的先验信息,也即高程的分布是均匀分布的,所以参数估计往往为最大化条件概率$ p\left({\boldsymbol{x}}|{\boldsymbol{\theta }}\right) $,也即可以根据式(6)的最小二乘法进行求解。
-
在自由网平差中,不设起算数据,4个点的高程都为未知数,则有:
此时矩阵A秩亏,最大化条件概率得不出解,需要先验信息。假设4个点的初始高程为$ {\boldsymbol{\mu }}=\left[{H}_{A0}{H}_{B0}{H}_{C0}{H}_{D0}\right] $,秩亏网平差满足观测残差最小的情况下同时满足参数改正数向量L2范数最小:
这就是秩亏网平差常用的L2正则化方法。该方法计算结果与贝叶斯估计加先验概率的计算结果是等价的,先验概率表达式同式(8),在给定$ {\boldsymbol{x}} $的情况下,可以获得后验概率为:
由于$ p\left({\boldsymbol{x}}\right) $不包含参数的信息,最大化后验概率也就相当于最大化$ p\left({\boldsymbol{\theta }}\right)p\left({\boldsymbol{x}}|{\boldsymbol{\theta }}\right) $,经过公式变换最后等价于最小化式(12),即获得跟正则化一样的结果。
2.1. 测量数据处理的数理统计解释
2.2. 频率学派和贝叶斯学派
2.3. 测量数据处理中的正则化
2.4. 控制网平差案例
2.4.1. 普通控制网平差
2.4.2. 自由网平差
-
经典测量平差手段能应对绝大多数传统测量任务。测量大数据时代下[15],测量形式、数据和任务发生了极大的改变,给经典测量数据处理方法带来两方面挑战。在几何要素测量上,随机变量符合几何和物理原理的情况下,可以建立严密的变量概率模型,但是复杂的测量任务使随机变量的维数急剧增加,数据处理与计算复杂度急速增长。在特征提取上,观测变量和待估计参数之间无法建立明确函数关系的情况下,则无法建立严密概率模型,统计推断难以应用。为应对大数据时代下的挑战,测量数据处理方法也借鉴吸收了新的统计学习方法(见图 2)。
-
随着数据处理理论的发展,贝叶斯学派逐渐演化出了概率图模型。概率图在联合概率密度分布表示和求解上都有较大优势。大数据与人工智能时代,测量变量虽然多,但是变量往往倾向于只跟少数几个变量产生联系,概率图使用图模型可以紧凑并且透明地将联合分布表示出来[16],它可以概括现存的多变量概率模型,包括混合模型、朴素贝叶斯、隐马尔可夫模型、动态贝叶斯、条件随机场等,在联合概率密度分布表示和求解上都有较大优势。经过多年来的研究,概率图模型形成了变量消除、置信度传播、蒙特卡洛采样、变分推理等一套成熟完善的精确和近似推理算法。基于表示和计算上的显著优势,概率图模型逐渐成为当前大数据时代较为流行的测量数据处理方法,虽然很多实际应用过程中并不直接引述概率图模型的概念,而是以概率图模型中的某一类模型或者推理方法(如隐马尔可夫模型、条件随机场等)来表述,但它们的本质还是属于概率图模型下统计推断的范畴。
以移动测量中的同步定位与建图(simultaneous localization and mapping,SLAM)问题为例,移动平台的状态变量和观测变量的联合概率模型可以用一个动态贝叶斯网络(图 3)进行表示。图 3中,红色和绿色圆圈分别为路标观测变量($ {\boldsymbol{z}} $)和控制输入变量($ {\boldsymbol{u}} $),黄色和蓝色圆圈为平台变量($ {\boldsymbol{x}} $)和路标状态变量($ {\boldsymbol{m}} $)。SLAM数据处理的任务就是在图 3所示的概率图模型下,通过观测变量来推断k时刻状态变量,也即是查询如下后验概率:
该后验概率可以由状态模型$ {{\boldsymbol{x}}}_{k}={f}_{x}\left({{\boldsymbol{x}}}_{k-1}, {{\boldsymbol{u}}}_{k}\right)+{{\boldsymbol{v}}}_{k} $和观测模型$ {{\boldsymbol{z}}}_{k}=h\left({{\boldsymbol{x}}}_{k-1}, {\boldsymbol{m}}\right)+{{\boldsymbol{w}}}_{k} $表示的两个条件概率递归计算得到:
式中,$ {\boldsymbol{R}} $、$ {\boldsymbol{Q}} $分别表示状态误差、观测误差的协方差矩阵;$ {\boldsymbol{w}} $为观测误差。
状态变量的递归推断具体可以通过依次最大化下面两个后验概率得到:
分别对应了预测和校正两个步骤,这也是贝叶斯滤波的基本步骤。
如果观测模型和运动模型均为线性模型,则系统为线性高斯系统,那么贝叶斯滤波也就等价于卡尔曼滤波了。卡尔曼滤波对当前状态参数的估计是符合最优无偏估计的。但如果是非线性,可以通过线性化的方式进行近似,在某个点附近考虑运动方程以及观测方程的一阶泰勒展开,只保留一阶项,即线性的那一部分,按照线性系统进行推导,这样将一个非高斯的分布近似成一个高斯分布,卡尔曼滤波器的结果拓展到非线性系统中,这就是扩展卡尔曼滤波器(extended Kalman filter,EKF)。当然,还可以放弃高斯假设,用基于粒子的方式进行近似推理,即用足够多的采样点来表达输出的分布,这种蒙特卡洛的方式也就是粒子滤波的思路。如果将求解的过程变成离线求解,也即是所有观测一起加入进行全局优化,那么可以将概率图模型进行因子分解[17],转化成因子图(见图 4)。这就是SLAM后端的另外一种典型处理方法——图优化方法[18]。
因子图中每个因子表示一个后验概率密度,绿色的为控制输入因子,红色的为观测因子,紫色的为先验因子。经过因子分解,状态变量的最大后验概率可以用因子势函数$ {\phi }_{*}\left({\mathrm{ }}\right) $相乘进行描述:
通过最大化该势函数即可以获得状态变量的估计值。
-
利用测量数据进行多要素特征提取的数据处理任务中,大数据特征更加明显,体现在数据类型的多样性和待提取特征变量的泛化性,通常可以直接借鉴统计学习和机器学习的方法[19]。特征提取的方法大致可以归为概率方法和非概率方法[20]。概率方法刻画属性参数的概率分布,如概率图模型、深度生成模型等。非概率方法则取函数形式,只注重计算,如深度前馈网络、随机森林、支持向量机等。
用概率方法对测量目标特征进行统计推断,跟纯几何要素统计推断相比,最大的区别在于加入了概率模型的学习过程。几何参数的关系由数学几何或者物理模型完全确定,其求解往往只涉及推断过程。然而特征提取的概率模型则不是确定和显示表达的,其概率模型参数甚至模型结构都需要进行学习。作为一个统一的概率理论框架,概率图模型同样可以用于复杂的特征要素提取。概率图模型的分级表达允许其在不同的抽象层次上刻画知识,并对特定领域的知识进行系统编码[21]。特征要素提取往往被定义为结构化学习和预测问题,即学习输入变量X和输出变量Y的模型,然后用该模型预测给定X的Y。概率图模型能够有效地模拟随机变量之间的关系,非常适合进行结构化学习和预测任务。例如,可以用贝叶斯网络、马尔可夫网络或者条件随机场来刻画输入变量X和输出变量Y的概率关系。这些结构概率模型的参数则可以通过大量样本进行学习获得,从而获得X和Y的概率模型,借助完善的推理算法,可以实现属性信息的提取。如果概率图建模的时候再进一步变化,变成可以用多层隐变量组成,概率图模型进一步演变成深度生成模型[22],也是现在属性要素提取中非常流行的方法。如深度玻尔兹曼机和深度信念网络等特殊类型的概率图模型,已成为深度学习领域重要的概率模型。
非概率方法则是只做参数计算,不关心参数的概率。比较代表性的有随机森林[23]、支持向量机、深度前馈网络等。非概率性的数据处理方法无法还原出特征变量的概率分布,往往是通过学习决策函数来直接进行特征提取。不过与概率方法相比,非概率方法有学习准确率高、学习问题简单等优势。
在实际测量工程中,测量目标往往存在尺度多变、结构复杂、指标多样等特点,特征变量的概率模型存在多样性和不确定性。例如,工程测量的对象有千米级尺度的隧道、分米级尺度的轨道扣件、厘米级尺度的刻槽、毫米级尺度的裂缝等,统一的模型难以对所有对象进行准确刻画。另外,由于长尾效应的存在,少量类别占据了绝大多数样本,样本的不完备性给最终提取效果带来极大影响。
为解决工程测量对象尺度多变以及训练样本数据长尾效应问题,可以以层次建模的方式,根据工程对象的尺度自适应建立匹配的数学模型,解决单一模型刻画不准确的问题,通过融合经验知识的手段建立工程目标属性的知识图谱[24],结合机器学习方法解决样本数据不完备带来的特征提取不准确的问题(见图 5)。
-
以笔者团队研制的城市管道检测胶囊设备为例,介绍其中涉及的现代测量场景中的数据处理方法。城市管道检测胶囊是一种新型的适用大范围、低成本、高效率、作业简便的排水管道检测设备[25],其实物图如图 6所示,它由防水外壳、广角摄像头监控模块、发光二极管补光灯、感光调节系统、电源模块、惯性辅助测量单元、配重块等模块组成,是一款轻量级的针对排水管道检测的物联网设备,其主要功能是管道病害的定位和识别,因此数据处理主要包括胶囊定位测图和管道病害检测分类。
-
用于融合定位的多源数据包括惯性测量单元采集的9轴运动数据(角速度、加速度、地磁场数据)、光流模块获得的胶囊设备的水平像素位移量、主摄像头获取的连续图像帧,通过多视角几何方法得到的位姿估计数据。先验数据包括管网地图,能得到胶囊的漂流路径、标记点(井盖点)的绝对位置信息,将其用于融合定位中的绝对校正。其多源数据融合定位处理框架见图 7。
基于胶囊拍摄的视频与采集惯性数据进行视觉、惯导数据融合处理,获得相机位姿,并利用井盖之间的绝对距离进行绝对误差校正,确定病害图像位置信息,在多段管道中进行视觉与惯性数据紧融合里程计定位,并结合光流数据进行松融合处理。其中视觉与惯性融合主要的处理主要包括图像信息处理、惯性测量单元预积分[26]和后端非线性优化[27]。松融合主要包括将紧融合的结果与光流数据、管网地图进行融合,实现整个管道定位的连续性(见图 8)。
-
人工识别管道病害时间和人力成本高,还存在误判和漏判的情况,基于深度学习的管道缺陷识别检测不仅能够避免人为误差,还提高了识别效率[28]。在管道病害检测中,常常面临病害类别样本数据不平衡的问题,随着网络深度的增加,网络性能会达到饱和,导致检测性能下降。
因此,可以将分层深度学习模型与重采样技术结合,分层深度学习模型与一般深度学习模型相比,能够快速区分病害与正常图像,以及容易从带有病害的图像中识别出不同病害的种类。分层深度学习模型就是将识别任务分为高低两级,高级检测任务将具有病害的图像与正常图像区分开,低级分类首先假设图像有病害,计算每个病害的概率,然后从条件概率的链式规则中得出最终的病害分类结果[29]。
基于深度学习模型的管道病害识别技术流程见图 9,首先以深度神经网络算法为基础,收集管道病害数据集并利用神经网络算法对其进行训练。通过管道胶囊采集的管道内部视频,提取有病害的关键帧,按照病害分类标准进行分类标注,制作管道病害数据集。然后对神经网络进行训练和评估,获得最佳的权重模型。利用深度学习模型对管道缺陷自动识别出的结果见图 10。
3.1. 面向纯几何要素测量的数据处理方法
3.2. 面向特征提取的数据处理方法
3.3. 管道胶囊定位与病害识别案例
3.3.1. 胶囊定位测图
3.3.2. 管道病害识别
-
随着电子信息技术发展和工程项目需求变化,测量进入了大数据时代,数据获取方法、数据类别、处理任务等各方面发生了巨大的变化。对测量数据处理而言,最为重要的变化是处理任务从单一的几何要素计算变成了几何与多要素特征提取。为适应新的应用需求,测量数据处理方法也发生了显著变化,最主要的趋势是将经典平差数据处理纳入了更为广泛的统计学习领域内,这样,在数据科学领域新发展的理论和方法也能充分地被吸纳和应用,从而促进了工程测量领域的发展,也拓展了测量的应用范畴。例如,测量的应用领域已经覆盖了自动驾驶汽车、无人机自主环境感知、基础设施安全状态检测等诸多新兴领域。未来,在数据处理新理论、新方法的支持下,测量领域还必将得到更加蓬勃的发展。