类脑导航算法:综述与验证

郭迟, 罗宾汉, 李飞, 陈龙, 刘经南

郭迟, 罗宾汉, 李飞, 陈龙, 刘经南. 类脑导航算法:综述与验证[J]. 武汉大学学报 ( 信息科学版), 2021, 46(12): 1819-1831. DOI: 10.13203/j.whugis20210469
引用本文: 郭迟, 罗宾汉, 李飞, 陈龙, 刘经南. 类脑导航算法:综述与验证[J]. 武汉大学学报 ( 信息科学版), 2021, 46(12): 1819-1831. DOI: 10.13203/j.whugis20210469
GUO Chi, LUO Binhan, LI Fei, CHEN Long, LIU Jingnan. Review and Verification for Brain-Like Navigation Algorithm[J]. Geomatics and Information Science of Wuhan University, 2021, 46(12): 1819-1831. DOI: 10.13203/j.whugis20210469
Citation: GUO Chi, LUO Binhan, LI Fei, CHEN Long, LIU Jingnan. Review and Verification for Brain-Like Navigation Algorithm[J]. Geomatics and Information Science of Wuhan University, 2021, 46(12): 1819-1831. DOI: 10.13203/j.whugis20210469

类脑导航算法:综述与验证

基金项目: 

国家重点研发计划 2016YFB0501801

详细信息
    作者简介:

    郭迟,博士,教授,主要从事北斗应用、无人系统导航与基于位置服务研究。guochi@whu.edu.cn

  • 中图分类号: P228;TP242.6

Review and Verification for Brain-Like Navigation Algorithm

Funds: 

The National Key Research and Development Program of China 2016YFB0501801

More Information
    Author Bio:

    GUO Chi, PhD, professor, specializes in BeiDou application, unmanned system navigation, and location-based services (LBS).E-mail: guochi@whu.edu.cn

  • 摘要: 类脑导航算法是近年来的新兴研究热点,这类算法通过对生物导航能力的模仿实现自主导航,核心问题是如何提升泛化能力。介绍了类脑导航算法的研究背景与理论基础,经过调研总结出了其计算框架;以类脑导航算法计算框架为骨干对该领域的突出工作进行了讨论分析,并通过严格的控制变量实验验证了一些典型改进方法的效果。主要贡献有:全面地介绍并总结了类脑导航领域的理论基础与突出工作;总结出了类脑导航算法的计算框架,该框架科学定义了算法不同部分的职能,从而能解构具体的算法,完成细粒度的分类和对比;通过理论分析与实验验证,总结出了有价值的结论,并展望了未来的发展。
    Abstract:
      Objectives  In recent years, the brain-like navigation algorithm is a new research hotspot, which is expected to achieve autonomous navigation by imitating the ability of biological navigation. The core issue is how to improve generalization ability.
      Methods  This paper introduces the research background and theoretical basis of the brain-like navigation algorithm. After investigation, we propose a computational framework of brain-like navigation algorithm. The outstanding works in this field are discussed and analyzed under this framework, and we carried out experimental verification of some basic methods.
      Results  The main contributions of this paper are: (1) Comprehensively introduces and summarizes the theoretical basis and outstanding works in this field. (2) Proposes the computational framework of the brain-like navigation algorithm, which scientifically defines the functions of different modules of the algorithm. (3) Through theoretical analysis and experimental verification, we summarized valuable conclusions and expectations.
      Conclusions  In terms of model design, mature methods of deep learning can also be applied to this problem, but need more modifications to further improve navigation capabilities; in terms of model training, combining the advantages of multiple learning algorithms is hopeful to further improve the generalization ability.
  • 守时实验室需要建立和维持一个准确、稳定、可靠的时间尺度作为时间基准[1-3],其核心算法包括时间尺度算法[4]、钟差预测算法[5-6]、驾驭算法[7-9]等。原子钟是守时系统的核心部件。时间基准的性能不仅和算法设计有关,还和参与计算的各台原子钟的性能有关。每种算法需要针对各参与计算的原子钟的模型和频率稳定度来设计。因此分析原子钟的模型和稳定度具有重要意义。

    目前的研究中,文献[10-13]只分析了指定平滑时间的稳定度,或只对时差观测量中的某一具体分量展开分析,没有具体分析时差观测量中各分量对Allan偏差的贡献,并通过估计值外推得到所有平滑时间的Allan偏差估计值;文献[12-14]对Kalman滤波器估计原子钟状态原理描述不清晰;当观测噪声过大、存在周期性波动时,无法使用斜率法准确直接估计原子钟噪声强度[15];当周期性波动在时差中不明显时,目前估计方法较为复杂[12, 16-17]

    本文针对上述问题展开研究,探索原子钟模型和频率稳定度分析方法。大量实验表明,典型氢钟和铯钟的观测模型可以表示为[2, 18-20]:①确定性部分,用二次多项式(时差、频差和线性频漂)加周期性波动项表示;②随机性部分,即原子钟噪声,主要为频率白噪声(white frequency modulation noise,WFM)和频率随机游走噪声(walk random frequency modulation noise,RWFM);③观测噪声,噪声类型为相位白噪声(white phase modulation noise,WPM)。本文详细分析了该模型各分量的Allan偏差表达式。

    在此基础上,本文从最优估计和低通滤波器[7-9]两个角度描述Kalman滤波器(Kalman filter,KF)估计原子钟状态的原理;提出了综合KF状态估计的结果和Allan偏差图估计原子钟噪声和观测噪声强度的方法;提出了3种不同的估计线性频漂幅度的方法;结合原子钟随机微分方程模型,提出了综合Kalman滤波器状态估计的结果和对数Allan偏差图估计周期性波动周期和幅度的方法。

    典型的氢钟和铷钟,其确定性分量用二次多项式来表示;典型的铯钟,其确定性分量用一次多项式来表示。二次多项式模型[2]表示为:

    $$ x\left( t \right) = {x_0} + {y_0}t + \frac{1}{2}d{t^2} + {\varepsilon _x}\left( t \right) $$ (1)

    式中,等式右边前3项对应确定度分量,其中x0为初始时差,y0为初始频差,d为线性频漂;εx(t)对应时差的随机性部分,即噪声。一次多项式模型即式(1)中线性频漂d=0的情况。

    某些时候,时差的确定性分量中还包含周期性波动分量。为简化分析,假设瞬时频差的周期性波动为标准正弦波或余弦波形式[19],即:

    $$ {y_s}\left( t \right) = A\cos \left( {2{\rm{ \mathit{ π} }}{f_0}t + \varphi } \right) $$ (2)

    式中,A为幅度;f0为周期性波动的频率;φ为初始相位。

    这时,频差周期性波动在时差上表现为:

    $$ \begin{array}{*{20}{c}} {{x_s}\left( t \right) = \int_0^t {{y_s}\left( s \right){\rm{d}}s} = A\int_0^t {\cos \left( {2{\rm{ \mathit{ π} }}{f_0}s + \varphi } \right){\rm{d}}s} = }\\ {\frac{A}{{2{\rm{ \mathit{ π} }}{f_0}}}\sin \left( {2{\rm{ \mathit{ π} }}{f_0}s + \varphi } \right)\left| {_0^t} \right.} \end{array} $$ (3)

    于是,二次多项式叠加周期性波动项的时差模型表示为:

    $$ \begin{array}{*{20}{c}} {x\left( t \right) = {x_0} + {y_0}t + \frac{1}{2}d{t^2} + }\\ {\frac{A}{{2{\rm{ \mathit{ π} }}{f_0}}}\sin \left( {2{\rm{ \mathit{ π} }}{f_0}s + \varphi } \right)\left| {_0^t} \right. + {\varepsilon _x}\left( t \right)} \end{array} $$ (4)

    通过大量观测发现,氢钟、铯钟时差中起主导作用的噪声是RWFM[2, 18, 20-21]和WFM。这两种噪声在时差上可以分别用维纳过程和积分维纳过程来建模[2, 18, 20-21],即:

    $$ {\varepsilon _x}\left( t \right) = {\sigma _1}{W_1}\left( t \right) + {\sigma _2}\int_0^t {{W_2}\left( s \right){\rm{d}}s} $$ (5)

    式中,εx(t)为时差的随机性部分,即原子钟时差的噪声;W1(t)和W2(t)分别代表两个独立的维纳过程,并且有W(t)~N(0, t),即每个维纳过程服从均值为0、方差为时间t的正态分布;σ1σ2分别是这两个维纳过程的扩散系数,用于表明噪声的强度。

    把式(5)代入式(4),时差可表示为:

    $$ \begin{array}{*{20}{c}} {x\left( t \right) = {x_0} + {y_0}t + \frac{1}{2}d{t^2} + \frac{A}{{2{\rm{ \mathit{ π} }}{f_0}}}\sin \left( {2{\rm{ \mathit{ π} }}{f_0}s + \varphi } \right)\left| {_0^t} \right. + }\\ {{\sigma _1}{W_1}\left( t \right) + {\sigma _2}\int_0^t {{W_2}\left( s \right){\rm{d}}s} } \end{array} $$ (6)

    时差的观测量表示为:

    $$ \begin{array}{*{20}{c}} {z\left( t \right) = x\left( t \right) + \sigma \varepsilon \left( t \right) = {x_0} + {y_0}t + }\\ {\frac{1}{2}d{t^2} + \frac{A}{{2{\rm{ \mathit{ π} }}{f_0}}}\sin \left( {2{\rm{ \mathit{ π} }}{f_0}s + \varphi } \right)\left| {_0^t} \right. + }\\ {{\sigma _1}{W_1}\left( t \right) + {\sigma _2}\int_0^t {{W_2}\left( s \right){\rm{d}}s} + \sigma \varepsilon \left( t \right)} \end{array} $$ (7)

    式中,ε(t)为WPM;σ用于表明观测噪声的强度。

    时域上通常用Allan方差来表征频率稳定度。Allan方差的定义如下[2, 19]

    $$ \sigma _y^2\left( \tau \right) = \frac{1}{2}E\left[ {{{\left( {\bar y\left( {{t_k} + \tau } \right) - \bar y\left( {{t_k}} \right)} \right)}^2}} \right] $$ (8)

    式中,τ为平滑时间;y为平均频差,定义为:

    $$ \bar y\left( {{t_k}} \right) = \frac{1}{\tau }\int_{{t_k} - \tau }^{{t_k}} {y\left( t \right){\rm{d}}t} = \frac{{x\left( {{t_k}} \right) - x\left( {{t_k} - \tau } \right)}}{\tau } $$ (9)

    式中,y为瞬时频差;x即为式(6)中定义的时差。

    实际上常用Allan方差的平方根,即Allan偏差来表征稳定度。文献[22]详细推导了扩散系数与Allan方差的关系,即:

    $$ \sigma _y^2\left( \tau \right) = \sigma _1^2/\tau + \frac{1}{3}\sigma _2^2\tau $$ (10)

    式中,σy2(τ)代表平滑时间为τ时的Allan方差。式(10)中等式右边第一项斜率为-1,第二项斜率为1,分别对应WFM和RWFM。这说明在对数Allan方差图中,WFM的斜率为-1,RWFM的斜率为1。在实际应用中,很容易通过对Allan方差拟合得到扩散系数的值。

    文献[20]推导了WPM与Allan方差的关系:

    $$ \sigma _y^2\left( \tau \right) = 3{\sigma ^2}/{\tau ^2} $$ (11)

    式(11)表明,WPM在对数Allan方差图中斜率为-2。

    把式(1)和式(9)代入式(8),得到线性频漂d与Allan方差的关系:

    $$ \sigma _y^2\left( \tau \right) = \frac{1}{2}{d^2}{\tau ^2} $$ (12)

    式(12)表明,d在对数Allan方差图中斜率为2。式(2)所示的周期性波动项和Allan方差的关系为[19]

    $$ \sigma _y^2\left( \tau \right) = {A^2}\frac{{{{\sin }^4}\left( {{\rm{ \mathit{ π} }}{f_0}\tau } \right)}}{{{{\left( {{\rm{ \mathit{ π} }}{f_0}\tau } \right)}^2}}} $$ (13)

    综上,式(6)所示的时差的Allan方差表示为:

    $$ \sigma _y^2\left( \tau \right) = \sigma _1^2/\tau + \frac{1}{3}\sigma _2^2\tau + \frac{1}{2}{d^2}{\tau ^2} + {A^2}\frac{{{{\sin }^4}\left( {{\rm{ \mathit{ π} }}{f_0}\tau } \right)}}{{{{\left( {{\rm{ \mathit{ π} }}{f_0}\tau } \right)}^2}}} $$ (14)

    式(7)所示的时差观测量的Allan方差表示为:

    $$ \begin{array}{*{20}{c}} {\sigma _y^2\left( \tau \right) = 3{\sigma ^2}/{\tau ^2} + \sigma _1^2/\tau + \frac{1}{3}\sigma _2^2\tau + }\\ {\frac{1}{2}{d^2}{\tau ^2} + {A^2}\frac{{{{\sin }^4}\left( {{\rm{ \mathit{ π} }}{f_0}\tau } \right)}}{{{{\left( {{\rm{ \mathit{ π} }}{f_0}\tau } \right)}^2}}}} \end{array} $$ (15)

    式中,等式右边第1项为观测噪声;第2、3项为原子钟噪声;第4项为频漂;第5项为周期性波动在Allan方差中的分量。

    由式(15)看出,WPM、WFM、RWFM和线性频漂在对数Allan方差图中的斜率分别为-2、-1、1和2,在对数Allan偏差图中的斜率分别为-1、-1/2、1/2和1。假如时差中存在较大幅度的周期性波动,那么Allan方差也存在明显的周期性波动,即Allan方差在中间某一平滑时间段内会凸起来。

    但是,并不是每台钟的模型中都含有上述所有分量。例如大部分铯钟几乎没有线性频漂,大部分型号的地面钟都没有周期性波动。

    本节首先从最优估计和低通滤波器两个角度描述了KF估计原子钟状态的原理;然后展示分析WPM、WFM、RWFM强度、线性频漂幅度、周期性波动的幅度和频率的方法。

    式(1)所示的原子钟模型用随机微分方程(stochastic differential equations,SDEs)闭合解的离散形式表示为[2, 18, 20-21]

    $$ \left\{ \begin{array}{l} x\left( {{t_{k + 1}}} \right) = x\left( {{t_k}} \right) + {x_2}\left( {{t_k}} \right)T + \frac{1}{2}d{T^2} + \\ \;\;\;\;\;\;\;\;\;\;\;\;\;{\sigma _1}\left( {{W_1}\left( {{t_{k + 1}}} \right) - {W_1}\left( {{t_k}} \right)} \right) + \\ \;\;\;\;\;\;\;\;\;\;\;\;\;{\sigma _2}\int_{{t_k}}^{{t_{k + 1}}} {\left( {{W_2}\left( s \right) - {W_2}\left( {{t_k}} \right)} \right){\rm{d}}s} \\ {x_2}\left( {{t_{k + 1}}} \right) = {x_2}\left( {{t_k}} \right) + dT + {\sigma _2}\left( {{W_2}\left( {{t_{k + 1}}} \right) - {W_2}\left( {{t_k}} \right)} \right) \end{array} \right. $$ (16)

    式中,xx2分别代表了两个状态分量,x和式(1)完全相同,代表时差,x2代表频差的一部分,即不含WFM的频差;T为时间间隔,T=tk+1-tk;其他符号的含义和§1.1相同。其中,噪声分量为:

    $$ {J_k} = \left[ {\begin{array}{*{20}{c}} {{\sigma _1}\left( {{W_1}\left( {{t_{k + 1}}} \right) - {W_1}\left( {{t_k}} \right)} \right) + {\sigma _2}\int_{{t_k}}^{{t_{k + 1}}} {\left( {{W_2}\left( s \right) - {W_2}\left( {{t_k}} \right)} \right){\rm{d}}s} }\\ {{\sigma _2}\left( {{W_2}\left( {{t_{k + 1}}} \right) - {W_2}\left( {{t_k}} \right)} \right)} \end{array}} \right] $$ (17)

    使用KF对上述两个状态分量进行估计,得到估计值记为$\hat x\left({{t_k}} \right)$和${\hat x_2}\left({{t_k}} \right)$,其步骤用以下5个方程表示:

    $$ {\mathit{\boldsymbol{\hat s}}_{k, k - 1}} = \phi {\mathit{\boldsymbol{\hat s}}_{k - 1, k - 1}} $$ (18)
    $$ {P_{k, k - 1}} = \phi {P_{k - 1, k - 1}}{\phi ^{\rm{T}}} + \mathit{\boldsymbol{Q}} $$ (19)
    $$ {\mathit{\boldsymbol{K}}_k} = {P_{k, k - 1}}{H^{\rm{T}}}{\left( {H{P_{k, k - 1}}{H^{\rm{T}}} + R} \right)^{ - 1}} $$ (20)
    $$ {\hat s_{k, k}} = {\hat s_{k, k - 1}} + {K_k}\left( {{z_k} - H{{\hat s}_{k, k - 1}}} \right) $$ (21)
    $$ {\mathit{\boldsymbol{P}}_{k, k}} = \left( {\mathit{\boldsymbol{I}} - {\mathit{\boldsymbol{K}}_k}\mathit{\boldsymbol{H}}} \right){\mathit{\boldsymbol{P}}_{k, k - 1}} $$ (22)

    式中各符号意义见文献[12, 21]。其中,H=[1 0];$\phi $=$\left[ {\begin{array}{*{20}{c}} 1&T\\ 0&1 \end{array}} \right]$;过程噪声方差矩阵Q和观测噪声方差矩阵R分别表示为:

    $$ \begin{array}{*{20}{c}} {\mathit{\boldsymbol{Q}} = {\rm{E}}\left[ {\left( {{J_k} - 0} \right){{\left( {{J_k} - 0} \right)}^{\rm{T}}}} \right] = }\\ {\left[ {\begin{array}{*{20}{c}} {\sigma _1^2T + \frac{1}{3}\sigma _2^2{T^3}}&{\frac{1}{2}\sigma _2^2{T^2}}\\ {\frac{1}{3}\sigma _2^2{T^3}}&{\sigma _2^2T} \end{array}} \right]} \end{array} $$ (23)
    $$ \mathit{\boldsymbol{R}} = {\sigma ^2} $$ (24)

    当原子钟时差符合模型(16),QR的值符合${\sigma ^2}$、${\sigma _1}^2$和${\sigma _2}^2$时,KF估计得到的$\hat x\left({{t_k}} \right)$和${\hat x_2}\left({{t_k}} \right)$是最小均方意义下的最优估计。从频域角度,确定QR的值相当于确定KF的带宽[8-9];KF作为低通滤波器,其作用就是滤除时差观测量中高频的WPM,$\hat x\left({{t_k}} \right)$中保留了低频的WFM和RWFM,${\hat x_2}\left({{t_k}} \right)$中只保留了最低频的RWFM[8-9]

    文献[12-14]将x2理解为频差,但笔者认为,频差是由时差的差分得到的,其中依然包含了WFM和RWFM,而x2中只包含RWFM。

    由于$\hat x\left({{t_k}} \right)$中包含WFM和RWFM,而${\hat x_2}\left({{t_k}} \right)$中只包含RWFM,噪声分量更少,所以,从${\hat x_2}\left({{t_k}} \right)$中可以更有效地估计频漂、周期性分量等。当含有周期性波动项时,尽管原子钟模型不完全符合式(16),但从KF作为低通滤波器的角度[8-9]出发,KF依然可以有效滤除观测噪声,估计出$\hat x\left({{t_k}} \right)$和${\hat x_2}\left({{t_k}} \right)$。

    WPM、WFM和RWFM在对数Allan偏差图中的斜率分别为-1、-1/2、1/2,理论上可以通过斜率拟合出σ2σ12σ22的估计值,记为${\hat \sigma ^2}$、${\hat \sigma _1}^2$和${\hat \sigma _2}^2$。但是,实际上很多情况,尤其是远程比对的情况下,观测噪声很大,造成对数Allan偏差图中WFM分量淹没在WPM分量中。此外,周期性波动幅度很大时,Allan偏差图中间部分会向上凸起。这些都可能造成无法观察到WFM分量。针对这种情况,这里提出一种在${\hat \sigma _1}^2$无法准确获知的情况下,使用KF结合时差观测量z(t)和时差估计值$\hat x\left(t \right)$的Allan偏差,获取${\hat \sigma ^2}$、${\hat \sigma _1}^2$和${\hat \sigma _2}^2$的方法。步骤如下:

    1) 计算式(7)所示z(t)的Allan偏差,斜率拟合${\hat \sigma _2}^2$和${\hat \sigma ^2}$;

    2) 设置一个σ12的大致估计值,代入式(23)确定Q的值,使用KF估计得到Q的估计值,并画出$\hat x\left(t \right)$的Allan偏差图;理论上讲,$\hat x\left(t \right)$的噪声分量应该只包含WFM和RWFM;

    3) 根据$\hat x\left(t \right)$的Allan偏差图,反复调整σ12的估计值,重复步骤2),观察$\hat x\left(t \right)$的Allan偏差图,确保噪声分量斜率为-1/2和1/2,即只含有WFM和RWFM,最终获取${\hat \sigma _1}^2$。

    多种方法可以估计线性频漂$\hat d$。如直接对时差观测量z(t)进行最小二乘拟合(方法1),或对Allan偏差的斜率进行拟合(方法2),或对KF估计得到的${\hat x_2}\left(t \right)$的斜率进行最小二乘拟合(方法3)。

    参照文献[5-6],可以从理论上分析这些方法的估计不确定度,本文不展开分析。按照§2.1的分析,由于KF得到的${\hat x_2}\left(t \right)$中滤除了WFM,只含有RWFM,此外典型氢钟或铯钟WFM强度远大于RWFM强度,即σ12远大于σ22,所以从直观上理解,方法3的估计不确定度最小。

    1)分析f0。按照§2.1方法,尽管式(16)没有对周期性波动建模,KF依然可以估计得到$\hat x\left(t \right)$和${\hat x_2}\left(t \right)$,由于${\hat x_2}\left(t \right)$中只含有RWFM,周期性波动在z(t)和$\hat x\left(t \right)$中不明显,在${\hat x_2}\left(t \right)$中很明显。可以通过观测较长时间段内${\hat x_2}\left(t \right)$波峰波谷的位置,得到波动频率的估计值,记为${\hat f_0}$。

    2)分析A。由于噪声的存在,观察${\hat x_2}\left(t \right)$无法准确获取A的估计值,记为$\hat A$。本文采用如下方法:在$\hat x\left(t \right)$的Allan偏差图中,反复调整$\hat A$的值,观察式(13)平方根所示的周期性波动的Allan偏差与$\hat x\left(t \right)$的Allan偏差的吻合程度,最终得到$\hat A$。

    本文采用两台国产氢钟(分别记为Hm1和Hm2)相对于参考时间基准(记为Ref)的实测钟差(Hm1-Ref,Hm2-Ref)进行分析,以验证提出的原子钟模型和频率稳定度分析方法。其中Ref和国际协调世界时同步,稳定度远高于单台国产氢钟。

    取某一段长度约75 d的Hm1-Ref实测数据,作为时差观测量z(t)。按照§1.2的方法估计${\hat \sigma ^2}$、${\hat \sigma _1}^2$和${\hat \sigma _2}^2$,得到${\hat \sigma ^2}$=1×10-22 s2,${\hat \sigma _1}^2$=3×10-26 s和${\hat \sigma _2}^2$=1.2×10-33 s-1。其中,${\hat \sigma ^2}$=1×10-22 s2意味着观测噪声的标准差为0.01 ns或10 ps,符合测量设备的指标。

    图 1展示了KF前后z(t)和$\hat x\left(t \right)$的Allan偏差,同时也画出了根据上述估计值,按照式(10)、(11)的平方根计算得到的WPM、WFM、RWFM部分的Allan偏差。综上,本实验表明§2的方法可以在观测噪声和周期性波动幅度很大时,有效估计出${\hat \sigma ^2}$、${\hat \sigma _1}^2$和${\hat \sigma _2}^2$。

    图  1  z(t)和$\hat x\left(t \right)$的Allan偏差
    Figure  1.  Allan Deviations of z(t) and $\hat x\left(t \right)$

    本节分别对§2.3的3种方法进行验证。

    方法1:对$\hat x\left(t \right)$分别用一阶多项式和二阶多项式进行最小二乘拟合,得到线性频漂的估计值为$\hat d$=-3.891×10-20 s/s2图 2(a)2(b)分别画出了拟合残差。对比图 2(a)2(b),可以明显看出Hm1中存在线性频漂。

    图  2  $\hat x\left(t \right)$的一阶残差和二阶残差
    Figure  2.  First Order and Second Order Residuals of $\hat x\left(t \right)$

    方法2:验证方法1。将方法1得到的$\hat d$值代入式(12)再平方根,计算得到Allan偏差的频漂部分。图 1中画出了Allan偏差的频漂部分,可知两种方法得到的$\hat d$值基本吻合。

    方法3:图 3画出了KF估计得到的${\hat x_2}\left(t \right)$,可知${\hat x_2}\left(t \right)$中存在明显的线性频漂。对${\hat x_2}\left(t \right)$的斜率进行最小二乘拟合,得到$\hat d$=-3.86×10-20 s/s2,和方法1的结果基本吻合。

    图  3  ${\hat x_2}\left(t \right)$
    Figure  3.  ${\hat x_2}\left(t \right)$

    综上,§2.3的3种方法估计结果基本吻合。实际上,直观上分析,方法3估计不确定度较小,原因在于KF估计得到的${\hat x_2}\left(t \right)$中滤除了WFM,只含有RWFM。假如直接对时差一次差分或者二次差分,得到的序列中同样含有WFM和RWFM差分得到的噪声,由于WFM强度远大于RWFM,将导致无法直接在这些差分序列中观测到图 3中所示的周期性波动,周期性波动已经淹没于噪声中。

    采用§2.4的方法,观察图 3波峰波谷的位置,得到${\hat f_0}$=1/86 400 Hz,$\hat A$大约在1×10-14~2×10-14 s/s左右。反复比较式(13)开平方后所示的周期性波动和$\hat x\left(t \right)$的Allan偏差,最终得到$\hat A$=1.6×10-14 s/s。图 4画出了周期性波动项和$\hat x\left(t \right)$的Allan偏差,可见两者比较吻合。本实验表明了§2的方法可以有效估计周期性波动的周期和幅度。

    图  4  周期性波动项和$\hat x\left(t \right)$的Allan偏差
    Figure  4.  Allan Deviations of the Sinusoidal Component and $\hat x\left(t \right)$

    采用和§2相同的方法分析第2台国产氢钟Hm2的性能,得到该氢钟的参数估计值分别为:${\hat \sigma ^2}$=1×10-22 s2,${\hat \sigma _1}^2$=3×10-26 s,${\hat \sigma _2}^2$=8×10-33 s-1,$\hat d$=-3.8×10-20 s/s2,${\hat f_0}$=1/86 400 Hz和$\hat A$=1.0×10-14 s/s。图 5画出了KF前后z(t)和$\hat x\left(t \right)$的Allan偏差,以及通过参数估计值计算得到的WPM、WFM、RWFM、线性频漂、周期性波动项的Allan偏差。

    图  5  z(t)和$\hat x\left(t \right)$的Allan偏差
    Figure  5.  Allan Deviations of z(t) and $\hat x\left(t \right)$

    把§3.1~§3.4得到的参数估计值代入式(14)和式(15),得出τ < 1 d的实验结果和国产氢钟的说明书相符;当τ > 10 000 s时,观测噪声对Allan偏差的影响很小。

    综上,本节实验结果验证了本文方法可以有效分析WPM、WFM、RWFM、线性频漂、周期性波动项各自的Allan偏差,以及总的Allan偏差,并通过这些估计值,拟合出任意平滑时间的Allan偏差估计值。

    本文展示了原子钟模型和频率稳定度分析方法,详细分析了原子钟时差观测量中的各分量,包括确定性部分(时差、频差、线性频漂和周期性波动项)、随机性部分(WFM、RWFM)和观测噪声(WPM);分析了WPM、WFM、RWFM、线性频漂、周期性波动项在Allan偏差中的表达式,描述了KF用于估计原子钟状态的原理;提出了当在对数Allan偏差图中,WFM完全淹没于WPM时,使用KF估计WPM、WFM、RWFM强度的方法;提出了3种估计线性频漂幅度的方法和估计周期性波动周期和幅度的方法。通过两台国产氢钟的实测数据验证了本文方法的实用性。实际上,可以通过这些估计值拟合出任意平滑时间的Allan偏差估计值。本文提出的方法物理原理清晰,操作简便易行。该研究对于时间尺度、钟差预测、原子钟驾驭等算法具有重要意义。

  • 图  1   导航智能体与环境的交互

    Figure  1.   Interaction of Navigation Agent and Environment

    图  2   AI2-THOR场景实例

    Figure  2.   Instances of AI2-THOR Scenes

    图  3   类脑导航计算框架

    Figure  3.   Calculation Framework of Brain-like Navigation

    图  4   模型设计与梯度传播图

    Figure  4.   Model Design and Gradient Propagation

    图  5   元强化学习方法实例

    Figure  5.   Instance of Meta-Reinforcement Learning Method

    图  6   辅助任务方法实例

    Figure  6.   Instance of Auxiliary Tasks

    图  7   对抗适应网络实现能力迁移

    Figure  7.   Ability Transformation by Generative Adversarial Networks

    图  8   显式记忆推理与规划决策设计

    Figure  8.   Explicit Designs of Memory and Plan Model

    图  9   基于注意力的动作选择

    Figure  9.   Action Selection Based on Attention Mechanism

    图  10   实验网络结构与训练方法

    Figure  10.   Model Designs and Training Methods for Experiment

    图  11   RGB还原效果图

    Figure  11.   Examples of RGB Reconstructions

    图  12   Baseline1在测试场景的导航的最后8帧图像观察与对应动作

    Figure  12.   Last 8 Observations and Actions on Test Scenes by Baseline1

    图  13   训练成功率曲线图

    Figure  13.   Curves of Training Success Rate

    表  1   不同模拟环境简介

    Table  1   Summary of Different Simulated Environments

    模拟环境 数据集 场景规模 场景修改 亮点
    DeepMind Lab[12] 渲染合成 小型迷宫 支持 高度可定制化
    AI2-THOR[11] 渲染合成 室内单个房间 支持 物体对象可交互模拟真实物理
    RoboTHOR[13] 渲染合成以及真实场景 室内单个房间 支持 仿真环境对应真实存在的场景
    MINOS[14] SUNCG[15]M3D 多房间完整室内建筑 支持 多模态传感信息
    House3D[16] SUNCG 多房间完整室内建筑 支持 支持房间导航任务
    Habitat[7] M3DGibson,Replica 多房间完整室内建筑 不支持 运行高速,可导入自定义数据集
    下载: 导出CSV

    表  2   奖励函数代表性设计一览表

    Table  2   Representative Designs of Reward Function

    文献 成功奖励 时间惩罚 碰撞惩罚 探索鼓励奖励
    Zhu等[11] 常量(10) -0.01 -0.1
    Mirowski等[28] 常量(10) 地图上分布着奖励为1或2的“水果”
    Mirowski等[23] 路径长度加权奖励
    Shi等[29] 常量 常量 通过预测下一个状态来衡量探索的程度,将探索程度作为额外的好奇心奖励
    Druon等[30] 常量(5) -0.01 目标出现在视野中的外接矩形框是目前最大的时候能获得正比于矩形框大小奖励
    Ye等[31] 目标出现在视野中的外接矩形框是目前最大的时候能获得正比于矩形框大小奖励
    下载: 导出CSV

    表  3   不同目标表示处理

    Table  3   Different Treats of Target Representation

    目标 对应网络 代表文献
    独热码 线性 [26, 36]
    单词 词嵌入网络 [24, 34-35]
    物体图像 卷积网络 [31]
    视点图像 卷积网络 [11, 37]
    相对位置 无处理 [38]
    绝对位置 无处理 [23]
    下载: 导出CSV

    表  4   实验中选择的导航目标

    Table  4   Navigation Targets Chosen in Experiment

    房间类型 目标
    厨房 Toaster,Microwave,Fridge,Coffee Maker
    客厅 Pillow,Laptop,Television,Garbage Can
    卧室 House Plant,Lamp,Book,Alarm Clock
    浴室 Sink,Toilet Paper,Soap Bottle,Light Switch
    下载: 导出CSV

    表  5   不同测试集测试结果(SR/SPL) /%

    Table  5   SR/SPL Results on Test Set /%

    方法 厨房 客厅 卧室 浴室 平均值
    SR SPL SR SPL SR SPL SR SPL SR SPL
    Baseline2 17.05 7.83 7.55 3.02 1.02 0.32 11.00 4.53 9.16 3.93
    RGB-off 19.18 7.45 10.19 3.46 1.47 0.56 17.29 7.01 12.03 4.62
    RGB-on 16.83 7.45 11.85 5.25 3.50 1.48 10.59 3.23 10.69 4.35
    Linear 7.92 2.69 8.94 2.88 9.88 5.79 55.69 28.96 20.60 10.08
    Delay 21.23 6.72 11.99 5.28 4.07 1.74 45.96 23.13 20.81 9.22
    Baseline1 27.52 9.59 9.10 3.32 9.95 4.51 54.47 26.00 25.26 10.85
    下载: 导出CSV
  • [1]

    Doeller C F, Barry C, Burgess N. Evidence for Grid Cells in a Human Memory Network[J]. Nature, 2010, 463(7281): 657-661 doi: 10.1038/nature08704

    [2]

    Kropff E, Carmichael J E, Moser M B, et al. Speed Cells in the Medial Entorhinal Cortex[J]. Nature, 2015, 523(7561): 419-424 doi: 10.1038/nature14622

    [3]

    Banino A, Barry C, Uria B, et al. Vector-based Navigation Using Grid-Like Representations in Artificial Agents[J]. Nature, 2018, 557(7705): 429-433 doi: 10.1038/s41586-018-0102-6

    [4]

    Smith L, Gasser M. The Development of Embodied Cognition: Six Lessons from Babies[J]. Artificial Life, 2014, 11(1-2): 13-29 http://davidzemach-bersin.com/wp-content/uploads/2012/09/Linda_Smith_embodied-cognition_babies.pdf

    [5]

    Epstein R A, Patai E Z, Julian J B, et al. The Cognitive Map in Humans: Spatial Navigation and Beyond [J]. Nature Neuroscience, 2017, 20(11): 1504-1513 doi: 10.1038/nn.4656

    [6]

    Sutton R S, Barto A G. Reinforcement Learning: An Introduction[M]. Cambridge, MA : MIT Press, 1998

    [7]

    Savva M, Kadian A, Maksymets O, et al. Habitat: A Platform for Embodied AI Research[C]//IEEE International Conference on Computer Vision, Seoul, Korea(South), 2019

    [8]

    Xia F, Zamir A R, He Z, et al. Gibson Env: RealWorld Perception for Embodied Agents[C]// IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Anchorage, Alaska, 2018

    [9]

    Chang A, Dai A, Funkhouser T, et al. Matterport3D: Learning from RGB-D Data in Indoor Environments[C]//International Conference on 3D Vision(3DV), Qingdao, China, 2017

    [10]

    Straub J, Whelan T, Ma L, et al. The Replica Dataset: A Digital Replica of Indoor Spaces[J/OL]. (2019-06-13)[2021-3-10]. http://arxiv.org/abs/1906.05797

    [11]

    Zhu Y, Mottaghi R, Kolve E, et al. Target-Driven Visual Navigation in Indoor Scenes Using Deep Reinforcement Learning[C]//IEEE International Conference on Robotics and Automation, Singapore, Singapore, 2017

    [12]

    Beattie C, Leibo J Z, Teplyashin D, et al. DeepMind Lab[J/OL]. (2016-12-13)[2021-3-10]. http://arxiv.org/abs/1612.03801

    [13]

    Deitke M, Han W, Herrasti A, et al. RoboTHOR: An Open Simulation-to-Real Embodied AI Platform [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, WA, USA, 2020

    [14]

    Savva M, Chang A X, Dosovitskiy A, et al. MINOS: Multimodal Indoor Simulator for Navigation in Complex Environments[J/OL]. (2017-12-11

    [15]

    Song S, Yu F, Zeng A, et al. Semantic Scene Completion from a Single Depth Image[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Honolulu, HI, USA, 2017

    [16]

    Wu Y, Wu Y, Gkioxari G, et al. Building Generalizable Agents with a Realistic and Rich 3D Environment[C]// The 6th International Conference on Learning Representations, Vancouver, Canada, 2018

    [17]

    Mnih V, Badia A P, Mirza L, et al. Asynchronous Methods for Deep Reinforcement Learning[C]// The 33rd International Conference on Machine Learning, ICML, New York, USA, 2016

    [18]

    Hochreiter S, Schmidhuber J. Long Short-Term Memory[J]. Neural Computation, 1997, 9(8): 1735-1780 doi: 10.1162/neco.1997.9.8.1735

    [19]

    Gupta S, Tolani V, Davidson J, et al. Cognitive Mapping and Planning for Visual Navigation[J]. International Journal of Computer Vision, 2020, 128 (5): 1311-1330 http://arxiv.org/pdf/1702.03920

    [20]

    Ross S, Gordon G J, Bagnell J A. A Reduction of Imitation Learning and Structured Prediction to NoRegret Online Learning[C]//The 14th International Conference on Artificial Intelligence and Statistics, Fort Lauderdale, USA, 2011

    [21]

    Jaderberg M, Mnih V, Czarnecki W M, et al. Reinforcement Learning with Unsupervised Auxiliary Tasks[C]//The 5th International Conference on Learning Representations, Toulon, France, 2017

    [22]

    Kulhanek J, Derner E, De Bruin T, et al. Visionbased Navigation Using Deep Reinforcement Learning [C]//European Conference on Mobile Robots, Prague, Czech Republic, 2019

    [23]

    Mirowski P, Grimes M K, Malinowski M, et al. Learning to Navigate in Cities Without a Map[J]. Advances in Neural Information Processing Systems, 2018, 2018: 2419-2430

    [24]

    Wortsman M, Ehsani K, Rastegari M, et al. Learning to Learn How to Learn: Self-Adaptive Visual Navigation Using Meta-Learning[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Long Beach, CA, USA, 2019

    [25]

    Finn C, Abbeel P, Levine S. Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks [C]//The 34th International Conference on Machine Learning, Sydney, Australia, 2017

    [26]

    Du H, Yu X, Zheng L. Learning Object Relation Graph and Tentative Policy for Visual Navigation [C]// The 16th European Conference on Computer Vision, Glasgow, UK, 2020

    [27]

    Cobbe K, Klimov O, Hesse C, et al. Quantifying Generalization in Reinforcement Learning[C]//The 36th International Conference on Machine Learning, Long Beach, California, USA, 2019

    [28]

    Mirowski P, Pascanu R, Viola F, et al. Learning to Navigate in Complex Environments[C]//The 5th International Conference on Learning Representations, Toulon, France, 2017

    [29]

    Shi H, Shi L, Xu M, et al. End-to-End Navigation Strategy with Deep Reinforcement Learning for Mobile Robots[J]. IEEE Transactions on Industrial Informatics, 2020, 16(4): 2393-2402 doi: 10.1109/TII.2019.2936167

    [30]

    Druon R, Yoshiyasu Y, Kanezaki A, et al. Visual Object Search by Learning Spatial Context[J]. IEEE Robotics and Automation Letters, 2020, 5 (2): 1279-1286 doi: 10.1109/LRA.2020.2967677

    [31]

    Ye X, Lin Z, Li H, et al. Active Object Perceiver: Recognition-Guided Policy Learning for Object Searching on Mobile Robots[C]//IEEE International Conference on Intelligent Robots and Systems, Madrid, Spain, 2018

    [32]

    Lü Y, Xie N, Shi Y, et al. Improving Target-Driven Visual Navigation with Attention on 3D Spatial Relationships[J/OL]. (2020-4-29)[2021-3-10]. http://arxiv.org/abs/2005.02153

    [33]

    Bengio Y, Louradour J, Collobert R, et al. Curriculum Learning[C]//ACM International Conference Proceeding Series, Montreal, Quebec, Canada, 2009

    [34]

    Yang W, Wang X, Farhadi A, et al. Visual Semantic Navigation Using Scene Priors[C]//The 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, 2019

    [35]

    Lu Y, Chen Y, Zhao D, et al. MGRL: Graph Neural Network Based Inference in a Markov Network with Reinforcement Learning for Visual Navigation [J]. Neurocomputing, 2020, 421: 140-150 http://d.wanfangdata.com.cn/periodical/a77ecd99de8ef08fb88b8eabc70bc802

    [36]

    Mousavian A, Toshev A, Fišer M, et al. Visual Representations for Semantic Target Driven Navigation [C]//IEEE International Conference on Robotics and Automation, Montreal, QC, Canada, 2019

    [37]

    Savinov N, Dosovitskiy A, Koltun V. Semi-parametric Topological Memory for Navigation[C]// The 6th International Conference on Learning Representations, Vancouver, BC, Canada, 2018

    [38]

    Gordon D, Kadian A, Parikh D, et al. SplitNet: Sim2Sim and Task2Task Transfer for Embodied Visual Navigation[C]//IEEE International Conference on Computer Vision, Seoul, Korea(South), 2019

    [39]

    Wu Y, Wu Y, Tamar A, et al. Bayesian Relational Memory for Semantic Visual Navigation[C]// IEEE International Conference on Computer Vision, Seoul, Korea(South), 2019

    [40]

    Kahn G, Villaflor A, Ding B, et al. Self-Supervised Deep Reinforcement Learning with Generalized Computation Graphs for Robot Navigation[C]//2018 IEEE International Conference on Robotics and Automation, Brisbane, Australia, 2018

    [41]

    Zhu F, Zhu L, Yang Y. Sim-real Joint Reinforcement Transfer for 3D Indoor Navigation[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Long Beach, CA, USA, 2019

    [42]

    Wu Q, Manocha D, Wang J, et al. NeoNav: Improving the Generalization of Visual Navigation via Generating Next Expected Observations[C]//Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(6): 10001-10008

    [43]

    He K, Zhang X, Ren S, et al. Deep Residual Learning for Image Recognition[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Las Vegas, NV, USA, 2016

    [44]

    Shen W, Xu D, Zhu Y, et al. Situational Fusion of Visual Representation for Visual Navigation[C]// IEEE International Conference on Computer Vision, Seoul, Korea(South), 2019

    [45]

    Oh J, Chockalingam V, Singh S, et al. Control of Memory, Active Perception, and Action in Minecraft[C]//The 33rd International Conference on Machine Learning, New York, USA, 2016

    [46]

    Pritzel A, Uria B, Srinivasan S, et al. Neural Episodic Control[C]//The 34th International Conference on Machine Learning, Sydney, NSW, Australia, 2017

    [47]

    Graves A, Wayne G, Reynolds M, et al. Hybrid Computing Using a Neural Network with Dynamic External Memory[J]. Nature, 2016, 538(7626): 471-476 doi: 10.1038/nature20101

    [48]

    Kipf T N, WellinG M. Semi-Supervised Classification with Graph Convolutional Networks[C]//The 5th International Conference on Learning Representations, Toulon, France, 2017

    [49]

    Tamar A, Wu Y, Thomas G, et al. Value Iteration Networks[C]// Advances in Neural Information Processing Systems, Barcelona, Spain, 2016

    [50]

    Watkins-Valls D, Xu J, Waytowich N, et al. Learning Your Way Without Map or Compass: Panoramic Target Driven Visual Navigation[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems, Las Vegas, NV, USA, 2020

    [51]

    Anderson P, Chang A, Chaplot D S, et al. On Evaluation of Embodied Navigation Agents[J/OL]. (2018-7-18)[2021-3-10]. http://arxiv.org/abs/1807.06757

    [52]

    Pennington J, Socher R, Manning C D. GloVe: Global Vectors for Word Representation[C]// 2014 Conference on Empirical Methods in Natural Language Processing, Doha, Qatar, 2014

  • 期刊类型引用(21)

    1. 李国俊,史丰丰,徐金锋,赵润,付桂涛,杨玉婷,李兆南,孙文龙,程梦飞,林勇昕. 基于钙离子光钟的160 d连续守时性能分析. 光学学报. 2025(04): 126-133 . 百度学术
    2. 崔海波,王伟,武建锋,李帅辰,李冲,王康. 机动状态下国产铯原子钟稳定性分析. 时间频率学报. 2024(01): 26-33 . 百度学术
    3. 宋鑫,张秀荣,李卫东. 关联噪声对维纳过程和拉比振荡的影响. 山西大学学报(自然科学版). 2024(03): 578-582 . 百度学术
    4. 李方能,梁益丰,许江宁,吴苗,朱兵. 基于鲁棒双参数指数平滑法的BDS卫星钟差预报. 中国惯性技术学报. 2024(07): 645-653 . 百度学术
    5. 王芳敏,李汶林,戴鸿飞,李春怡,周建华,薛申辉,王波. A real-time performance improvement method for composite time scale. Chinese Physics B. 2024(09): 354-361 . 百度学术
    6. 李宗源,袁海波,张虹,张继海,刘素芳,王一桁. 基于低通滤波器的原子钟时差测量数据降噪处理及其性能分析. 时间频率学报. 2024(03): 171-179 . 百度学术
    7. 李昂,周铁中,薛潇博,易航,陈德好. 一种智能整定氢原子频标PID控制系统参数的方法. 宇航计测技术. 2024(05): 39-44 . 百度学术
    8. 曹建峰,孔静,满海钧,鞠冰,张宇,刘荟萃. 天问一号星载USO的长期漂移标定. 武汉大学学报(信息科学版). 2024(12): 2181-2186 . 百度学术
    9. 赵军华,张玉军,刘安斐,展昕,陈亮. 附加钟特性的原子钟预测不确定度分析. 测绘科学. 2024(11): 30-39 . 百度学术
    10. 阚昊宇,胡志刚,吕逸飞,谢新,周仁宇,赵齐乐. 利用不同时间同步体制钟差评估北斗三号星载原子钟性能. 武汉大学学报(信息科学版). 2023(04): 604-610 . 百度学术
    11. 李方能,梁益丰,许江宁,吴苗. BDS/GPS新型铷原子钟长期特性分析. 中国惯性技术学报. 2023(05): 452-461 . 百度学术
    12. 李帅辰,武建锋,崔海波,方婧. 国产氢原子钟移动守时性能测试与分析. 导航定位学报. 2023(03): 38-44 . 百度学术
    13. 郭文飞,朱萌萌,辜声峰,左鸿铭,陈金鑫. GNSS精密时频接收机时钟调控模型与参数设计方法. 武汉大学学报(信息科学版). 2023(07): 1126-1133 . 百度学术
    14. 安景浩,王怀智,梁益丰,许江宁. BDS快速钟差预报方法对比分析. 舰船电子工程. 2023(03): 55-60 . 百度学术
    15. 卢鋆,武建峰,袁海波,申建华,孟轶男,宿晨庚,陈颖. 北斗三号系统时频体系设计与实现. 武汉大学学报(信息科学版). 2023(08): 1340-1348 . 百度学术
    16. 秦晓伟,杜二旺,赵春勃,王国永,杨涛. 基于频率源稳定度的钟差序列生成方法研究. 空间电子技术. 2023(04): 66-71 . 百度学术
    17. 陈汗龙,董哲,周真帆,郑晓雪. 国产原子钟频率稳定度评估分析. 导航定位学报. 2023(06): 28-33 . 百度学术
    18. 梁益丰,许江宁,吴苗,何泓洋. 北斗卫星钟差的CEEMDAN分解与周期项提取方法. 中国惯性技术学报. 2022(04): 476-484 . 百度学术
    19. 张杰梁,陈鲤文,陈静,张煌辉,姜立斌. 守时系统钟组规模技术验证. 电子质量. 2022(10): 151-157 . 百度学术
    20. 伍贻威,王世超. 不通过自由纸面时建立时间基准的方法与性能分析. 测绘学报. 2021(03): 343-355 . 百度学术
    21. 惠恬,赵高长,苏军,龚莹莹. 原子钟数据的改进经验模态分解降噪. 河南科技大学学报(自然科学版). 2021(05): 45-50+56+7 . 百度学术

    其他类型引用(11)

图(13)  /  表(5)
计量
  • 文章访问数:  2193
  • HTML全文浏览量:  536
  • PDF下载量:  459
  • 被引次数: 32
出版历程
  • 收稿日期:  2021-08-26
  • 发布日期:  2021-12-04

目录

/

返回文章
返回