Extrinsic Calibration Method for LiDAR and Camera with Joint Point-Line-Plane Constraints
-
摘要: 精确稳定的外参数标定是相机和激光雷达(light detection and ranging, LiDAR)融合感知定位的基础,针对Dhall标定方法在约束精度、稳定性和收敛性等方面存在的问题,提出了一种点线面联合约束的LiDAR和相机标定方法。首先,加入线-线约束和面-面约束并用Kabsch方法求得闭式解,减小了单一角点约束中的噪声影响,提高了标定结果的精度和稳定性;然后,利用多帧点云叠加拟合直线,并对拟合角点求均值,减小了点云噪声的影响,提高了标定方法的收敛速度和稳定性。该方法能在20帧内收敛,且角点的重投影误差小于2 cm,实验结果表明, 该方法比原方法具有更快的收敛速度和更高的精度。Abstract:Objectives Accurate and stable extrinsic parameter calibrations are the basis of fusing perception and positioning of cameras and light detection and ranging (LiDAR). To address the problems of the Dhall calibration method in constraint accuracy, stability, and convergence, this paper proposed a LiDAR and camera calibration method with joint point-line-plane constraints.Methods First, line-line and plane-plane constraints were added, and the Kabsch method was used to obtain a closed-form solution, which reduced the influence of noise in the single corner constraint and improved the accuracy and stability of the calibration results. Then, multi-frame point clouds were superimposed to fit lines, and the fitting corners were averaged, which further reduced the influence of the point cloud noise, thus improving the convergence speed and stability of the calibration method.Results Experimental results show that the proposed method can converge within 20 frames, and the reprojection error of the corner points was less than 2 cm.Conclusions The proposed method has faster convergence speed and higher accuracy than the original method.
-
北极海冰范围的变化对全球气候系统具有重要影响。首先,海冰表面具有较高的反照率,可反射大部分短波辐射,有助于保持极地地区的低温,减缓局地气候变化乃至全球气候变化[1]。随着海冰范围的减少,开阔水域吸收太阳能和热量,加速海冰融化[2]。此外,海冰对极地海洋生态系统也具有重要影响,海冰在夏季融化使水柱分层,产生最佳的光照条件刺激水华现象产生,进而引起极地生物(甲壳类动物、鱼类、海鸟和海洋哺乳动物)的活跃[3]。海冰密集度(sea ice concentration,SIC)指单位面积内海冰所占比例,是海冰研究(如海冰范围和海冰边缘线等)的重要参数,也是海洋-海冰模型的重要输入或边界条件[4],可以反映区域性气候变化[5],也能够指导和规划北极航道[6],因此,获取高精度的SIC具有重要意义。
自1972年发射了电子扫描微波辐射计,被动微波传感器全天时、全天候地监测SIC已有40多年历史[7]。目前,常用的被动微波传感器主要包括:(1)美国国防气象系列卫星(defense meteorological satellite program,DMSP)搭载的扫描式多通道微波辐射计、特种微波成像仪(special sensor microwave/imager,SSM/I)和专用微波成像仪(special sensor microwave imager sounder,SSMIS);(2)Aqua卫星搭载的先进微波扫描辐射计(advanced microwave scanning radiometer-E,AMSR-E)和后续地球水循环变动卫星1号(global change observation mission 1st-water,GCOM-W1)卫星搭载的先进微波扫描辐射计2(advanced microwave scanning radiometer 2,AMSR2)可提供更高空间分辨率数据(12.5 km);(3)中国的风云3号系列卫星(FY-3)搭载的微波成像仪(microwave radiation imager,MWRI)。基于被动微波数据估算SIC的算法可分为基于低频率波段(~19 GHz和~37 GHz)的方法和基于高频率波段(~89 GHz)的方法。基于低频率波段亮温数据的估算方法包括Bootstrap(BST)[8]、NASA Team(NT)[9]和基于全约束最小二乘(fully constrained least squares,FCLS)[10]等,这些算法可获得25 km空间分辨率的SIC结果。基于高频率波段亮温数据的估算方法包括ASI(Arctic radiation and turbulence interaction study(ARTIST)sea ice)[11]和Enhanced NASA Team(NT2)[12]等,这些算法可获得12.5 km甚至更高空间分辨率的SIC结果。
上述方法的建立主要针对DMSP系列卫星、AMSR-E和AMSR2。文献[13-16]分别将NT2算法、ASI算法和机器学习等方法引入基于MWRI数据的SIC估算。针对这3种传感器数据应用于SIC估算的差异,部分学者开展了对比研究。文献[17]将多种主流算法(如ASI、BST、NT和NT2等)应用于AMSR-E和SSM/I数据估算了南极SIC,并与船测数据进行了对比,结果显示AMSR-E与船测数据的相关系数较SSM/I高(分别为0.85和0.82)。文献[14]利用中分辨率成像光谱仪(moderate-resolution imaging spectroradio meter,MODIS)数据验证了基于MWRI和AMSR-E数据生产的北极SIC产品,当SIC < 95%时,AMSR-E更接近MODIS,当SIC≥95%时,MWRI结果更好。文献[16]将2016年风云3C的MWRI亮温数据和美国国家冰雪数据中心(National Snow and Ice Data Center,NSIDC)的SIC产品作为训练集,建立了反演SIC的神经网络模型,该模型的反演结果和NSIDC产品在影像上趋势基本一致,但整体结果偏低。文献[15]利用2016年1月MWRI亮温数据估算了北极SIC,并与NSIDC和德国不莱梅大学的SIC产品进行对比,结果显示基于MWRI获取的SIC精度介于NSIDC和德国不莱梅大学的SIC产品之间。文献[13]使用ASI算法结合动态系点值估算SIC,与已发布的其他SIC产品进行比较,通过与基于MODIS获得的SIC数据比较发现,在相同空间分辨率下,基于动态系点值的MWRI-ASI结果优于MWRI-NT2、AMSR2-BST和AMSR2-NT2的SIC。
目前,基于MWRI的SIC估算研究使用的算法比较单一,综合的比较分析较有限,因此本文将围绕MWRI数据应用于北极SIC估算精度开展评估,主要对比BST、NT、FCLS、NT2和ASI算法,并对比SSMIS和AMSR2数据应用于这5种方法估算SIC的精度。此外,由于FCLS算法仅针对被动微波数据的低频率波段,本文通过引入极化差异建立了一种针对高频率波段的全约束最小二乘海冰密度估算方法(FCLS-P),使其可用于被动微波数据的高频率波段,以获得较高空间分辨率的SIC。
1 实验数据
1.1 被动微波数据
本文使用的被动微波数据包括SSMIS、MWRI和AMSR2,具体参数见表 1。为保证数据和评价指标在时间分布上的统一,仅使用了各卫星2019年的数据进行对比研究。
表 1 SSMIS、MWRI和AMSR2传感器的基本参数Table 1. Basic Specifics of SSMIS, MWRI and AMSR2卫星平台 传感器 时间范围 频率/GHz 覆盖范围/km2 采样间隔/d 幅宽/km 空间分辨率/km DMSP-F17 SSMIS 2006年至今 19.35/22.235 42×70 1 1 700 12.5/25 37.0 28×44 91.655 13×14 FY3D MWRI 2019年至今 10.65 51×85 1 1 400 12.5/25 18.7 30×50 23.8 27×45 36.5 18×30 89 9×15 GCOM-W1 AMSR2 2012年至今 6.925/7.3 35×62 1 1 450 12.5 10.65 24×42 18.7 14×22 23.8 15×26 36.5 7×12 89 3×5 1)SSMIS。SSMIS传感器搭载于DMSP的F17卫星,其重访周期为2~3 d,在极区的时间分辨率为1 d。该传感器包括19.35、22.235、37.0和91.655 GHz 4个频率,其中19.35、2.235、37.0 GHz数据的空间分辨率为25 km,91.655 GHz数据的空间分辨率为12.5 km。本文使用的北极地区的SSMIS数据来自NSIDC(https://nsidc.org/data/nsidc-0032)。
2)MWRI。FY3D卫星是风云3号气象卫星中的第4颗,于2017年11月发射成功,为近极地太阳同步轨道卫星,其搭载的MWRI在极地的重访周期为1 d。MWRI提供10.65、18.7、23.8、36.5和89 GHz 5种频率10个通道的数据,其中18.7、23.8和36.5 GHz数据的空间分辨率为25 km,89 GHz数据的空间分辨率为12.5 km。本文使用的MWRI亮温数据和基于NT2算法的SIC产品下载自中国国家卫星气象中心(National Satellite Meteorological Centre,NSMC)官方网站(http://data.nsmc.org.cn)。
3)AMSR2。AMSR2传感器搭载于GCOM-W1卫星。该卫星发射于2012年5月。AMSR2传感器在极区的时间分辨率为1 d。AMSR2传感器提供6.925、7.3、10.65、18.7、23.8、36.5和89 GHz这7个频率段14个通道数据,空间分辨率从3 km×5 km(89 GHz)到35 km×62 km(6.925 GHz)。本文使用的北极地区的AMSR2数据来自NSIDC,包含了18.7、23.8、36.5 GHz的亮温数据和基于NT2算法的SIC产品,空间分辨率为12.5 km。
1.2 船测SIC数据
本文使用的北极实测SIC来自于北极船测数据(Arctic Shipborne Sea Ice Standardization Tool,ASSIST)(https://icewatch.met.no/cruises)。该数据集是通过人工目视判别的方式,每小时获取船舶附近约1 km的SIC、海冰厚度、海冰类型(一年冰、多年冰等)等数据。由于观测者的经验、船舶的航行速度和能见度问题,观测结果会有一定误差。但是,这类船测数据从南极发展到北极,多项研究也使用该数据验证了极区SIC的精度[10,17-18],因此该数据可以被当成一个可靠的评价参考。
使用2019年ASSIST船测数据中的多类别海冰的密集度数据作为SIC真值,验证AMSR2、SSMIS和MWRI数据估算SIC的精度,该数据包含总体SIC、一年冰密集度和多年冰密集度等信息。受到船舶破冰能力和航行安全的限制,这些数据的获取时间集中在7、8、9、11和12月,涵盖了北极的夏季(海冰融化季)和冬季(海冰生长季)。被动微波数据的空间分辨率为12.5~25 km,而船测数据的空间分辨率较高,因此,被动微波数据某一个像素点中包括多条船测记录。将这几条船测记录通过求均值进行合并,保证两种数据空间分辨率的一致性。合并前使用的原始船测数据共计651条,合并后为552条,其在北极海域的分布情况如图 1所示。
2 SIC估算方法
本文主要利用NT、BST、FCLS、ASI和FCLS-P算法获取基于SSMIS、MWRI和AMSR2数据的SIC结果。其中NT、BST、FCLS、NT2和ASI算法详见文献[8-11],本节详解FCLS-P算法。
极化差异P为海冰和海水在~90 GHz的亮温差异,研究表明P通常较大。因此,ASI算法利用了~90 GHz频段的这种差异估算SIC[11],计算式为:
式中,P为极化差异,
; 为垂直极化亮温; 为水平极化亮温; 、 分别为海冰和开阔水域极化差异的参考值; 为海冰密集度。 然而式(1)的建立是基于较理想的情况,实际中被动微波数据的亮温值易受到多种因素的干扰,如辐射计自身的误差、辐射传输过程中的误差和影像成像的误差等。因此,将误差项n引入式(1):
其中,
; 。利用最小二乘求解式(2)的详细过程见文献[10]。高频数据比低频数据更容易受到大气条件干扰,本文采用大气滤波器 和 分别去除云中液态水和海水表面水蒸气的影响[19],假设得到某像素的光谱梯度率大于等于设定的阈值时,该像素受到大气的影响, ,即: 3 实验与分析
3.1 系点值获取
系点值是SIC求解的关键参数,获取系点值主要通过实地观测或者从遥感影像中提取。由于系点值并不是本文的主要内容,因此选用全年固定的系点值[20]。本文的系点数据是来自于SSMIS数据,通过选择一年冰、多年冰和开阔水域的感兴趣区域,对比MWRI、AMSR2和SSMIS数据的差异,拟合出可用于MWRI和AMSR2数据的系点值,该方法也被文献[20]用于SSMI和SSMIS的系点值校准。首先根据2018年北极海冰的最小范围选择了北极海域一年冰和多年冰的感兴趣区域,根据历年的海冰最大范围选择了开阔水域的感兴趣区域,这3个感兴趣区域分别位于加拿大北极群岛西北部、格陵兰岛北部和格陵兰岛东南方向的海域(如图 2所示)。然后以19V通道为例,统计并对比2019年每日MWRI、AMSR2和SSMIS数据中这3个区域各频段的亮温,结果如图 3所示。通过分析发现,MWRI和AMSR2数据各频段各地物均与SSMIS数据有较强的相关性,因此利用线性回归的方式构建了MWRI、AMSR2与SSMIS的拟合方程,拟合精度(R2)为0.72~0.98。最后,将该方程用于SSMIS的系点值计算获得MWRI和AMSR2数据的系点值和极化差异值,结果见表 2。
表 2 SSMIS、MWRI和AMSR2数据各频段系点值Table 2. Tie Points Values of SSMIS, MWRI and AMSR2 in Each Frequency通道 SSMIS MWRI AMSR2 海冰/K 开阔水域/K 海冰/K 开阔水域/K 海冰/K 开阔水域/K 一年冰 多年冰 一年冰 多年冰 一年冰 多年冰 19H 232.0 196.0 113.4 230.7 197.2 108.2 232.8 201.1 112.2 19V 248.4 220.7 184.9 247.3 222.8 179.7 252.4 228.2 191.0 37V 242.3 188.5 207.1 236.9 186.2 197.4 244.3 194.1 212.2 P(~90 GHz) 10.0 46.3 10.7 47.5 11.7 47.0 3.2 SIC估算
基于2019年北极地区MWRI、AMSR2和SSMIS数据,利用NT、BST、FCLS、ASI和FCLS-P方法分别估算SIC结果。NT2算法是利用样本建立不同条件下的计算模型,通过误差匹配寻找最佳SIC结果。由于本文使用的数据时间跨度较小,影响模型的精度,因此利用NT2算法估算的SIC使用相关网站提供的产品,包括基于MWRI数据获得的SIC产品(MWRI-NT2)和基于AMSR2数据获得的SIC产品(AMSR2-NT2)。目前国际上没有基于SSMIS数据利用NT2算法获得的SIC产品,因此SSMIS-NT2密集度将不进行比较。
此外,由于MWRI和SSMIS数据不同频段的空间分辨率不一致,因此将NT、FCLS和BST算法用于MWRI和SSMIS传感器的低频段数据,获得空间分辨率为25 km的SIC,其中NT和FCLS算法还可以估算获得一年冰和多年冰密集度;将ASI和FCLS-P算法用于MWRI和SSMIS传感器的高频段数据,获得空间分辨率为12.5 km的SIC。由于AMSR2数据各频段的空间分辨率均为12.5 km,因此基于该数据获得的SIC的分辨率均为12.5 km。图 4展示了2019-10-01多个数据和方法分别获得的SIC结果。从图 4可以看出,SIC结果间存在差异,且数据等差异导致SIC结果图中北极点数据缺失范围不一致。
3.3 SIC精度验证
3.3.1 总体SIC精度分析
利用均方根误差(root mean square error,RMSE)来评价各传感器数据和各算法估算SIC与552条ASSIST船测数据对比的精度,结果见表 3。
表 3 2019年北极海冰密集度的精度/% Table 3. RMSE of Arctic SIC in 2019/% 数据 FCLS NT BST NT2 ASI FCLS-P SSMIS 21.8 25.0 22.6 — 22.1 21.7 MWRI 21.7 24.4 22.1 21.8 20.9 20.4 AMSR2 18.6 21.6 19.3 20.3 22.3 22.0 从表 3可以看出,基于低频段数据获得空间分辨率为25 km的SIC结果中,基于FCLS算法的MWRI的精度最高(RMSE最小,为21.7%),而基于NT算法的SSMIS的精度最低(RMSE最大,为25.0%);同样,基于AMSR2低频段数据获得空间分辨率为12.5 km的SIC结果精度相对较高,其中AMSR2-FCLS的精度最高(RMSE最小,为18.6%)。由此可见,FCLS算法相比NT和BST算法性能更好,主要是因为该算法考虑了误差项,并利用数值优化方法进行SIC的求解[10]。基于AMSR2低频段数据获得的SIC精度较好的原因主要是其空间分辨率高,混合像元影响比MWRI和SSMIS数据小;在同一空间分辨率的情况下,基于MWRI数据获得的SIC精度比SSMIS数据高,可能是因为两个传感器在入射角、扫描周期、覆盖范围和采样间隔等方面的不同导致了亮温数据的差异[13]。基于高频段数据获得空间分辨率为12.5 km的SIC结果中,基于AMSR2-ASI获得的SIC精度最低(RMSE最大,为22.3%),MWRI-FCLS-P和AMSR2-NT2获得的SIC精度最高(RMSE分别为20.4%和20.3%)。
对比表 3中的RMSE还可以发现,基于NT2算法的SIC精度比NT算法精度高,因为NT2算法是在NT算法基础上进行的改进提升,适用于不同的气候条件,且NT2获得的SIC结果空间分辨率更高。基于BST算法的SSMIS和AMSR2数据的SIC精度比基于NT或NT2算法要高,这与文献[17]研究中SSM/I和AMSR-E用于SIC估算的结果一致,具体原因将在后续分季节讨论。此外,利用FCLS算法和FCLS-P算法针对3种数据获得的SIC相对NT和ASI算法的精度较高。NT和ASI算法在求解后将大于1的SIC解赋值为1,而小于0的解赋值为0。相比之下,FCLS和FCLS-P算法考虑了反演过程中的误差因素,且对SIC结果进行了非负约束,并利用全约束最小二乘的数值优化方法进行求解,因此可获得更高精度的SIC结果。
表 3中的SIC精度仍存在其他误差来源。首先,系点值为各类型海冰真实的亮温的假设将引起误差。由于海冰形态结构的多样性、海冰表面积雪的影响、不同季节和不同气候条件等都将导致实际情况中系点值与真实亮温的差异,从而引起求解过程的误差。不同类型海冰和开阔水域的系点值来自平均大气状态下的卫星观测数据[20],这将产生误差。开阔水域的系点值通常受到大气变化的影响,而海冰的系点值则受到海冰表面状态改变(如融化、积雪等)而引起的辐射改变的影响。因此,低SIC区域的精度对开阔水域的系点值最敏感,而高SIC区域对海冰表面状态变化最敏感[21]。在不同的大气条件下,固定系点值也将导致SIC的估算出现偏差,因此部分研究采用动态系点值以削弱大气条件的影响[22]。相同时间和相同空间尺度的SIC之间相关性最高,不同时间不同尺度则较弱[23]。由于船测数据的时空分辨率与被动微波数据差异较大,也对SIC精度评估存在影响。船测数据的空间分辨率为1 km,每条数据为1 h内的海冰状态,被动微波数据的空间分辨率为25 km或12.5 km,数据为日均亮温值,两者的时空分辨率的差异对结果造成不确定性。此外,船测数据具有约10%的观测误差[17]。可见,基于被动微波数据获取的SIC和船测数据比较出现差异是不可避免的。
3.3.2 SIC精度的季节性差异分析
从552条ASSIST船测数据中选择172条夏季数据和165条冬季数据,讨论各种数据及各种方法在不同季节获得的SIC差异,结果见表 4。
表 4 2019年北极不同季节SIC的精度/% Table 4. RMSE of Arctic SIC in Different Seasons in 2019/% 数据 FCLS NT BST NT2 ASI FCLS-P 夏季 冬季 夏季 冬季 夏季 冬季 夏季 冬季 夏季 冬季 夏季 冬季 SSMIS 19.0 12.8 20.7 24.4 20.7 14.4 — — 23.9 23.5 23.4 15.6 MWRI 17.9 13.4 19.1 17.8 19.4 12.2 21.4 15.5 23.0 13.7 21.1 11.2 AMSR2 17.2 15.2 19.6 19.3 17.3 13.9 22.0 15.2 23.1 15.4 22.1 14.6 对比不同季节的SIC精度可以发现,基于相同的算法,夏季利用MWRI和AMSR2数据获得的SIC精度普遍高于SSMIS;而冬季MWRI的精度通常高于AMSR2和SSMIS。由此可见,MWRI数据更稳定。
表 4中,冬季SIC的精度总体优于夏季,主要是因为夏季海冰表面容易受表面融化、融池等影响,被动微波数据受含水量影响较大,导致反演精度低[24]。此外,融化和融池还将增加使用的系点值和实际系点值的差异,而冬季海冰表面较稳定,因此SIC精度较高。
由于算法的差异,基于各算法获得的SIC结果在夏季和冬季的精度可能不同,文献[18]的研究结果也表明冬季SIC精度较优。基于NT算法获得的3种数据的SIC在夏季和冬季相差不大,主要因为极化差异和光谱梯度率对季节变化引起的系点值差异不敏感[9]。总体看,FCLS和FCLS-P算法获得的SIC结果精度在冬季和夏季均较高,主要是由于它们考虑了误差因素和对SIC结果进行了非负约束,并利用全约束最小二乘的数值优化方法进行求解。ASI算法基于3种数据获得的SIC精度低于BST算法,尤其是冬季的SSMIS数据,SSMIS-ASI和SSMIS-BST的RMSE分别为23.5%和14.4%。这一差异与文献[18]关于SSM/I数据的研究结果较一致,该结果中冬季基于ASI算法的RMSE为17.4%,而基于BST算法的精度为10.9%。船舶在航行受到船只的破冰能力和冰情影响,通常在较薄冰区航行,导致船测数据中低SIC的记录偏多。BST算法的FM模式适于较低SIC区域的估算[12],这可能是造成BST算法精度较高的原因之一。
尽管获得的SIC结果空间分辨率较高,但是NT2、ASI和FCLS-P算法在夏季的精度较FCLS、NT和BST算法低,而在冬季则没有这种趋势,主要影响可能来自于NT2、ASI和FCLS-P算法使用的大气滤波器。大气滤波器的使用是为了减少大气水汽等对地表辐射的影响,但是大气滤波器在过滤云雾的同时,也可能过滤掉了新冰,引起较大的误差[21]。
3.3.3 不同类型海冰的密集度精度评估
NT和FCLS算法可以估算一年冰和多年冰的密集度,因此本文还分析了这两种算法应用于不同数据后获得的多类型海冰密集度的精度,结果见表 5。
表 5 2019年北极不同类型海冰密集度的精度/% Table 5. RMSE of First-year Ice and Multi-year Ice in Arctic SIC in 2019/% 数据 一年冰 多年冰 NT FCLS NT FCLS SSMIS 29.0 24.1 20.5 14.8 MWRI 30.6 24.4 19.3 16.8 AMSR2 29.8 25.0 22.6 16.7 由表 5可知,不论是一年冰还是多年冰,SSMIS-NT和SSMIS-FCLS均获得略优的精度(14.8%~29.0%),这表明SSMIS数据在估算多类型海冰的密集度时具有优势。原因可能是MWRI和AMSR2数据对应于一年冰和多年冰的系点值是基于SSMIS数据的系点值拟合而成的,在进行一年冰和多年冰密集度提取时,精度相比SSMIS略有降低。此外,FCLS算法应用于每一种数据估算一年冰和多年冰的精度均比NT算法高,原因是FCLS算法相比NT算法增加了误差项的改正,可以有效地提升精度[10]。
在相同算法相同数据的情况下,多年冰的密集度精度均优于一年冰,这主要是由一年冰和多年冰表面物理特性等决定的。由于盐度、粗糙度和表面变形,一年冰表面特征变化大;多年冰的盐度较低,虽然表面呈波浪状,但通常是光滑的,因此,在被动微波数据中,一年冰亮温值的分布范围比多年冰更宽,导致一年冰的提取或识别比多年冰更难,从而引起SIC估算精度的下降[25]。
4 结语
本文以ASSIST船测数据和MODIS-AMSR2产品为实测数据,通过评估MWRI、SSMIS和AMSR2应用于2019年间北极SIC的精度,分析MWRI应用于北极海冰参数观测的可靠性。结果表明,MWRI数据在12.5 km和25 km空间分辨率下均获得较优的SIC估算精度(20.4%~24.4%)。由于AMSR2低频率波段数据的空间分辨率相比MWRI和SSMIS的低频率波段较高(12.5 km),因此它能利用低频率波段数据获得最优的SIC反演精度,其中AMSR2-FCLS的精度最高(18.6%)。对比6种反演方法,FCLS和FCLS-P算法应用于3种数据均获得最优的精度。这两种SIC反演方法考虑了反演过程中的误差因素(n),且对SIC结果进行了非负约束,并利用数值优化方法进行求解,因此可获得更高精度的SIC结果。研究SIC精度的季节性变化发现,MWRI数据在夏季和冬季都表现较好,而SSMIS数据获得的精度最低。但是,SSMIS数据估算的多类型海冰的密集度相比MWRI和AMSR2更好,精度高约0.9%~2.1%。
综上所述,MWRI具有较稳定的性能,可应用于北极海冰密集度的监测研究。然而,整个评估过程也受到一些不确定因素的影响,如船测数据的精度、系点值的精度、多源数据间的尺度差异引起的不确定性等,可在进一步研究中通过引入多种实测数据、动态亮温数据集等减少这些因素的影响。另外,FY-3D的MWRI与其他FY系列的MWRI之间会存在几何与辐射差异,将来在用于极地海冰研究时要做好数据一致性处理。
-
表 1 重投影误差和收敛时间比较
Table 1 Comparison of Reprojection Error and Convergence Time
实验 重投影误差/cm 收敛时间/s 本文方法 Dhall标定方法 本文方法 Dhall标定方法 1 1.66 3.40 3.0 14.1 2 1.82 4.21 2.2 18.0 3 1.87 4.33 1.1 14.0 4 2.25 6.23 3.4 15.1 5 2.28 6.52 3.8 12.3 表 2 双目外参数校验结果比较
Table 2 Results of Binocular Extrinsic Parameters Verification
实验 本文方法 Dhall标定方法 dx/cm dy/cm dz/cm dx/cm dy/cm dz/cm 1 0.55 1.12 0.40 5.96 3.72 0.32 2 1.97 0.96 0.84 3.41 2.18 0.88 -
[1] 张艳辉, 徐坤, 郑春花, 等. 智能电动汽车信息感知技术研究进展[J]. 仪器仪表学报, 2017, 38(4): 794‐805 doi: 10.3969/j.issn.0254-3087.2017.04.002 Zhang Yanhui, Xu Kun, Zheng Chunhua, et al. Advanced Research on Information Perception Technologies of Intelligent Electric Vehicles[J]. Chinese Journal of Scientific Instrument, 2017, 38(4): 794‐805 doi: 10.3969/j.issn.0254-3087.2017.04.002
[2] 龚健雅, 季顺平. 从摄影测量到计算机视觉[J]. 武汉大学学报·信息科学版, 2017, 42 (11): 1 518‐1 522 doi: 10.13203/j.whugis20170283 Gong Jianya, Ji Shunping. From Photogrammetry to Computer Vision[J]. Geomatics and Information Science of Wuhan University, 2017, 42(11) : 1 518‐1 522 doi: 10.13203/j.whugis20170283
[3] Verma S, Berrio J S, Worrall S, et al. Automatic Extrinsic Calibration Between a Camera and a 3D LiDAR Using 3D Point and Plane Correspondences [C]//IEEE Intelligent Transportation Systems Conference, Auckland, New Zealand, 2019
[4] 夏鹏飞, 尹慧琳, 何艳侠. 基于最大互信息的激光雷达与相机的配准[J]. 仪器仪表学报, 2018, 39(1): 34‐41 Xia Pengfei, Yin Huilin, He Yanxia. Calibration of LiDAR and Camera Based on Maximum Mutual Information[J]. Chinese Journal of Scientific Instrument, 2018, 39(1): 34‐41
[5] 肖军浩, 施成浩, 黄开宏, 等. 单目相机‐3维激光雷达的外参标定及融合里程计研究[J]. 机器人, 2021, 43(1): 17‐28 Xiao Junhao, Shi Chenghao, Huang Kaihong, et al. Extrinsic Calibration and Fused Odometry for Monocular Camera and 3D LiDAR[J]. Robot, 2021, 43(1): 17‐28
[6] Gomez‐Ojeda R, Briales J, Fernandez‐Moral E, et al. Extrinsic Calibration of a 2D Laser‐Rangefinder and a Camera Based on Scene Corners[C]//IEEE International Conference on Robotics and Automation, Seattle, USA, 2015
[7] Bai Z X, Jiang G, Xu A L. LiDAR‐Camera Calibration Using Line Correspondences[J]. Sensors, 2020, 20(21): 6 319‐6 336 doi: 10.3390/s20216319
[8] Napier A, Corke P, Newman P. Cross‐Calibration of Push‐Broom 2D LiDAR and Cameras in Natural Scenes[C]//IEEE International Conference on Robotics and Automation, Karlsruhe, Germany, 2013
[9] Pandey G, McBride J R, Savarese S, et al. Automatic Extrinsic Calibration of Vision and LiDAR by Maximizing Mutual Information[J]. Journal of Field Robotics, 2015, 32(5): 696‐722 doi: 10.1002/rob.21542
[10] Strobl K H, Hirzinger G. Optimal Hand‐Eye Calibration[C]//IEEE International Conference on Intelligent Robots and Systems, Beijing, China, 2006
[11] Huang K H, Stachniss C. Extrinsic Multi‐sensor Calibration for Mobile Robots Using the Gauss‐Helmert Model[C]//IEEE International Conference on Intelligent Robots and Systems, Vancouver, Canada, 2017
[12] Xu D F, Anguelov D, Jain A. PointFusion: Deep Sensor Fusion for 3D Bounding Box Estimation [C]//IEEE Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018
[13] Shin K, Kwon Y P, Tomizuka M. RoarNet: A Robust 3D Object Detection Based on Region Approximation Refinement[C]//IEEE Intelligent Vehicles Symposium(IV), Paris, France, 2019
[14] Ku J, Mozifian M, Lee J, et al. Joint 3D Proposal Generation and Object Detection from View Aggregation[C]//IEEE International Conference on Intelligent Robots and Systems, Madrid, Spain, 2018
[15] Hazirbas C, Ma L N, Domokos C, et al. FuseNet: Incorporating Depth into Semantic Segmentation via Fusion‐Based CNN Architecture[C]//Asian Conference on Computer Vision, Taipei, China, 2016
[16] Schneider N, Piewak F, Stiller C, et al. RegNet: Multimodal Sensor Registration Using Deep Neural Networks[C]//IEEE Intelligent Vehicles Symposium(IV), Los Angeles, USA, 2017
[17] Iyer G, Ram R K, Murthy J K, et al. CalibNet: Geometrically Supervised Extrinsic Calibration Using 3D Spatial Transformer Networks[C]//IEEE International Conference on Intelligent Robots and Systems, Madrid, Spain, 2018
[18] Zhang Q L, Pless R. Extrinsic Calibration of a Camera and Laser Range Finder(Improves Camera Calibration)[C]//IEEE International Conference on Intelligent Robots and Systems, Sendai, Japan, 2004
[19] Pandey G, Mcbride J, Savarese S, et al. Extrinsic Calibration of a 3D Laser Scanner and an Omnidirectional Camera[J]. International Federation of Automatic Control, 2010, 43(16): 336‐341 http://pdfs.semanticscholar.org/684e/c0385d82e141837d481bc17c32c183bb64c5.pdf
[20] Geiger A, Moosmann F, Car Ö, et al. Automatic Camera and Range Sensor Calibration Using a Single Shot[C]// IEEE International Conference on Robotics and Automation, Saint Paul, USA, 2012
[21] Kim E S, Park S Y. Extrinsic Calibration Between Camera and LiDAR Sensors by Matching Multiple 3D Planes[J]. Sensors, 2019, 20(1): 52‐69 doi: 10.3390/s20010052
[22] Zhou L P, Li Z M, Kaess M. Automatic Extrinsic Calibration of a Camera and a 3D LiDAR Using Line and Plane Correspondences[C]// IEEE/RSJ International Conference on Intelligent Robots and Systems, Madrid, Spain, 2018
[23] 祝飞, 范佳, 黄玉春, 等. 融合多种棋盘格约束的面阵相机和线激光外参标定[J]. 武汉大学学报·信息科学版, 2019, 44 (10): 1 524‐1 529 doi: 10.13203/j.whugis20180022 Zhu Fei, Fan Jia, Huang Yuchun, et al. Extrinsic Calibration of Camera and 2D Laser‐Rangefinder with Various Chessboard Constrains[J]. Geomatics and Information Science of Wuhan University, 2019, 44(10): 1 524‐1 529 doi: 10.13203/j.whugis20180022
[24] Park Y, Yun S, Won C S, et al. Calibration Between Color Camera and 3D LiDAR Instruments with a Polygonal Planar Board[J]. Sensors, 2014, 14(3): 5 333‐5 353 doi: 10.3390/s140305333
[25] Pusztai Z, Hajder L. Accurate Calibration of LiDARCamera Systems Using Ordinary Boxes[C]//IEEE International Conference on Computer Vision Workshops, Venice, Italy, 2017
[26] Lee G M, Lee J H, Park S Y. Calibration of VLP‐16 LiDAR and Multi‐View Cameras Using a Ball for 360 Degree 3D Color Map Acquisition[C]//IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems, Daegu, Korea, 2017
[27] Dhall A, Chelani K, Radhakrishnan V, et al. LiDAR‐Camera Calibration Using 3D‐3D Point Correspondences[EB/OL]. [2017‐05‐27]. https://arxiv. org/abs/1705. 09785
[28] Chai Z Q, Sun Y X, Xiong Z H. A Novel Method for LiDAR Camera Calibration by Plane Fitting [C]//IEEE/ASME International Conference on Advanced Intelligent Mechatronics, Auckland, New Zealand, 2018
[29] Zhang Z. A Flexible New Technique for Camera Calibration[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22 (11) : 1 330‐1 334 doi: 10.1109/34.888718
[30] Lepetit V, Moreno‐Noguer F, Fua P. EPnP: An Accurate O(n)Solution to the PnP Problem[J]. International Journal of Computer Vision, 2009, 81 (2): 155‐166 doi: 10.1007/s11263-008-0152-6
[31] Fischler M A, Bolles R C. Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography[J]. Communications of the ACM, 1981, 24(6): 381‐395 doi: 10.1145/358669.358692
[32] Arun K S, Huang T S, Blostein S D. Least‐Squares Fitting of Two 3‐D Point Sets[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1987, 9(5): 698‐700
-
期刊类型引用(3)
1. 孟怡悦,郭迟,刘经南. 采用注意力机制和奖励塑造的深度强化学习视觉目标导航方法. 武汉大学学报(信息科学版). 2024(07): 1100-1108+1119 . 百度学术
2. 张银胜,崔志强,王兴涛,孙佳琪,胡宇翔,单慧琳. 基于单目深度估计的智能驾驶路径规划方法. 国外电子测量技术. 2023(08): 71-79 . 百度学术
3. 李新凯,虎晓诚,马萍,张宏立. 基于改进DDPG的无人驾驶避障跟踪控制. 华南理工大学学报(自然科学版). 2023(11): 44-55 . 百度学术
其他类型引用(22)