留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

低成本大视场深度相机阵列系统

宋爽 陈驰 杨必胜 李清泉

宋爽, 陈驰, 杨必胜, 李清泉. 低成本大视场深度相机阵列系统[J]. 武汉大学学报 ● 信息科学版, 2018, 43(9): 1391-1398. doi: 10.13203/j.whugis20160397
引用本文: 宋爽, 陈驰, 杨必胜, 李清泉. 低成本大视场深度相机阵列系统[J]. 武汉大学学报 ● 信息科学版, 2018, 43(9): 1391-1398. doi: 10.13203/j.whugis20160397
SONG Shuang, CHEN Chi, YANG Bisheng, LI Qingquan. Large Field of View Array System Using Low Cost RGB-D Camerasin[J]. Geomatics and Information Science of Wuhan University, 2018, 43(9): 1391-1398. doi: 10.13203/j.whugis20160397
Citation: SONG Shuang, CHEN Chi, YANG Bisheng, LI Qingquan. Large Field of View Array System Using Low Cost RGB-D Camerasin[J]. Geomatics and Information Science of Wuhan University, 2018, 43(9): 1391-1398. doi: 10.13203/j.whugis20160397

低成本大视场深度相机阵列系统

doi: 10.13203/j.whugis20160397
基金项目: 

国家自然科学基金重点项目 41531177

中国博士后科学基金 2016M600614

国家自然科学基金 41371431

国家重大研发计划(重大科学仪器设备开发专项) 2016YFF0103501

详细信息
    作者简介:

    宋爽, 硕士, 主要从事点云/深度数据处理、三维场景识别和理解研究。shinesong_sxs@foxmail.com

    通讯作者: 杨必胜, 博士, 教授。bshyang@whu.edu.cn
  • 中图分类号: P246

Large Field of View Array System Using Low Cost RGB-D Camerasin

Funds: 

the National Natural Science Foundation of China 41531177

China Postdoctoral Science Foundation 2016M600614

the National Natural Science Foundation of China 41371431

the National Key R & D Program(Major Scientific Instruments and Equipment Development Special Projects) 2016YFF0103501

More Information
    Author Bio:

    SONG Shuang, master, specializes in LiDAR point cloud/ depth image processing, 3D scene recognizing and understanding.E-mail: shinesong_sxs@foxmail.com

    Corresponding author: YANG Bisheng, PhD, professor. E-mail:bshyang@whu.edu.cn
图(9) / 表(2)
计量
  • 文章访问数:  3158
  • HTML全文浏览量:  62
  • PDF下载量:  382
  • 被引次数: 0
出版历程
  • 收稿日期:  2017-03-29
  • 刊出日期:  2018-09-05

低成本大视场深度相机阵列系统

doi: 10.13203/j.whugis20160397
    基金项目:

    国家自然科学基金重点项目 41531177

    中国博士后科学基金 2016M600614

    国家自然科学基金 41371431

    国家重大研发计划(重大科学仪器设备开发专项) 2016YFF0103501

    作者简介:

    宋爽, 硕士, 主要从事点云/深度数据处理、三维场景识别和理解研究。shinesong_sxs@foxmail.com

    通讯作者: 杨必胜, 博士, 教授。bshyang@whu.edu.cn
  • 中图分类号: P246

摘要: 在测距传感器不断轻量化、小型化以及室内外地图一体化导航应用的驱动下,三维(3D)室内移动测量成为当今研究和应用的热点,在室内建模、室内定位等新兴领域中的应用越来越广泛。3D室内移动测量系统通常配备激光扫描仪、全景相机、惯性测量单元(inertial measurement unit,IMU)系统和里程计等传感器,虽能实现3D室内点云数据的采集,但其距离传感器-激光扫描仪价格昂贵且便携性较差。彩色深度(RGB depth,RGB-D)相机为低成本3D室内移动测量系统构建提供了新的距离成像传感器选择,但主流型号RGB-D相机视场角小,继而导致数据采集效率远低于传统激光扫描仪,难以做到点云数据的完整覆盖与稳健采集,且易造成同时定位与制图(simultaneous localization and mapping,SLAM)过程中跟踪失败。针对以上问题,构建了一种低成本室内3D移动测量系统采集设备,通过组合多台消费级RGB-D相机构成大视场RGB-D相机阵列,提出了一种阵列RGB-D相机内外参数标定方法,并通过实验检验了设计系统采集的点云数据的精度。

English Abstract

宋爽, 陈驰, 杨必胜, 李清泉. 低成本大视场深度相机阵列系统[J]. 武汉大学学报 ● 信息科学版, 2018, 43(9): 1391-1398. doi: 10.13203/j.whugis20160397
引用本文: 宋爽, 陈驰, 杨必胜, 李清泉. 低成本大视场深度相机阵列系统[J]. 武汉大学学报 ● 信息科学版, 2018, 43(9): 1391-1398. doi: 10.13203/j.whugis20160397
SONG Shuang, CHEN Chi, YANG Bisheng, LI Qingquan. Large Field of View Array System Using Low Cost RGB-D Camerasin[J]. Geomatics and Information Science of Wuhan University, 2018, 43(9): 1391-1398. doi: 10.13203/j.whugis20160397
Citation: SONG Shuang, CHEN Chi, YANG Bisheng, LI Qingquan. Large Field of View Array System Using Low Cost RGB-D Camerasin[J]. Geomatics and Information Science of Wuhan University, 2018, 43(9): 1391-1398. doi: 10.13203/j.whugis20160397
  • 主流消费级传感器正逐渐向轻量化、小型化发展,同时业界对室内外一体化导航应用的需求也越来越紧迫,三维(3D)室内移动测量目前已经成为研究和应用的热点之一[1]。包含颜色信息与强度信息的激光点云数据可广泛应用于诸如室内外3D导航[2]、建筑信息模型(building information model,BIM)[3]、三维重建[4]、逆向计算机辅助设计(computer aided design,CAD)[5]、增强现实[6]等领域。当前3D室内移动测量系统通常配备有多个激光扫描头、全景相机、惯性测量单元(inertial measurement unit,IMU)系统和里程计,可以快速获得建筑物内部密集、高精度三维点云,但其价格高昂,且重量、体积较大导致便携性较差。

    自PrimeSense与微软合作推出第一款消费级彩色深度(RGB depth,RGB-D)相机——Kinect V1以来,低成本消费级RGB-D相机逐渐走入大众视野。RGB-D相机根据其测量原理可分为结构光相机和飞行时间(time-of-flight,ToF)相机。ToF相机利用光束的飞行时间实现传感器与物体之间的距离计算,因其使用调制激光束,它不仅可以弱化环境光的影响,而且能消除多个传感器之间的干扰。同时,ToF相机设备的深度图像的精度、分辨率和误差分布均优于其余两类相机[7]。目前,学术界已有大量基于Kinect V2(Microsoft于2014年发布的ToF相机)的室内3D建模研究[8-9]

    通常,RGB-D相机的视场(field of view,FOV)低于60°,有效距离在3 ~ 5 m之间,其有限的作业区域严重制约着系统的工作效率,并且视场角狭窄亦会导致扫描数据缺少建筑物主要结构信息(例如天花板、墙壁等),继而给后续3D建模等应用带来困难[10]。基于低成本RGB-D相机的室内数据采集系统通常没有配备位姿测量设备,而是通过Visual Odometry(视觉里程计)[11-13]代替IMU进行位置和姿态的估计。由于视觉里程计没有固定的外部参照,其航迹位姿累积误差会随着时间迅速增加。室内环境具有遮挡物多、距离短、空间狭小的特点。采用单个RGB-D相机通过变换扫描角度的方式获取场景全覆盖点云无疑会延长数据采集时间,同时增加了航迹解算中的未知姿态位置参数的个数,导致误差的累计,增加了航迹求解的复杂度,削弱了系统鲁棒性。

    为解决当前室内扫描成本与高效高质无法兼顾的问题,找到一个高效、经济的室内数据采集方案,本文构建了一种低成本室内3D移动测量系统采集设备,组合多台消费级RGB-D相机构成大视场RGB-D相机阵列,提出了一种阵列RGB-D相机内外参数标定方法,并通过实验验证了设计系统采集的点云数据的精度。

    • 常用的ToF相机产品主要有Microsoft Kinect V2、CubeEye、PMD CamCube等,其中以Kinect V2应用最为广泛。它具有可视角度大、分辨率高、测程长等优势[14],故本文选择它作为传感器阵列组件,其标称深度测量范围为0.5 ~ 4.5 m(利用开源驱动可扩展至8 m),水平有效视场角为70°,垂直有效视场角约为60°。

      根据室内环境的特点,本文提出了图 1所示的传感器布局。为了兼顾平视、仰视和俯视视角的信息,依据Kinect V2的垂直视场角为60°左右这一特性,本文将3个传感器按照-50°、0°、50°的俯仰角安置,水平角和旋转角保持一致,传感器之间保证有10°视角重叠。本文阵列系统理论上可提供160°× 70°大视角,足以适用于绝大多数的室内建筑。传感器通过球形云台架设在三脚架横杆上组成阵列,并分别通过USB 3.0接口与移动工作站相连。为了保障足够的数据带宽,使用了3张独立地连接到PCI-E总线上的USB 3.0扩展卡,为每个传感器提供5 Gb/s的带宽。

      图  1  传感器配置图

      Figure 1.  Diagram of Sensor Profile

    • RGB-D传感器阵列标定包括两个部分:单RGB-D相机内参数标定与阵列RGB-D相机间的外参数标定。

      基于深度图像和红外影像共轴共心的特性,本文使用红外相机采集的红外影像代替深度图像进行标定。首先,分别标定彩色和红外相机的主距、主点(内参数)和镜头畸变参数;再标定彩色与深度传感器之间的相对位置和姿态(外参数);最后,标定传感器阵列中各个子传感器的位置和姿态,使其成为一个刚性整体,完成传感器阵列标定。

      1) 彩色、红外相机内参标定。相机针孔模型的内参数包括其焦距、像主点坐标、畸变参数等内部固有参数。本文用于描述影像畸变的畸变模型采用径向畸变模型和切向畸变模型。

      本文采用棋盘格作为标定板,运用特征点之间相互对应的关系,求解模板与图像之间的单应矩阵:

      $$ \mathit{\boldsymbol{H}} = \mathit{\boldsymbol{{A}}}\;[{r_1}\;{r_2}\;t] $$ (1)

      式中,H为单应矩阵;Α为内参矩阵;[r1 r2 t]为外参矩阵。本文采用张正友法[15]标定内参数。该方法在标定时将内参视为固定值,从任何方向和角度拍摄标定板,只有外参变化。通过多张不同位姿的标定图像可解算出内参矩阵Α以及图像对应的外参。

      2) 彩色、红外相机外参数标定。为精确叠加彩色和深度图像以得到无偏纹理,需要准确标定彩色相机和红外相机坐标系间的坐标变换:

      $$ {\mathit{\boldsymbol{M}}_r} = \mathit{\boldsymbol{R}}{\mathit{\boldsymbol{M}}_c} + \mathit{\boldsymbol{t}} $$ (2)

      式中,MrMc分别为红外相机坐标系和彩色相机坐标系下的像方非齐次坐标; Rt分别表示两部相机的相对旋转变换和位移变换。

      使用彩色相机和红外相机同时采集同一标定板的影像。利用张正友法可同时获得RctcRrtr,即

      $$ \left\{ \begin{array}{l} {\mathit{\boldsymbol{M}}_c} = {\mathit{\boldsymbol{R}}_c}{\mathit{\boldsymbol{M}}_s} + \mathit{\boldsymbol{t}}_c\\ {\mathit{\boldsymbol{M}}_r} = {\mathit{\boldsymbol{R}}_r}{\mathit{\boldsymbol{M}}_s} + \mathit{\boldsymbol{t}}_r \end{array} \right. $$ (3)

      其中,Ms为标定板坐标。由于同时采集的影像标定板坐标恒定,则:

      $$ {\mathit{\boldsymbol{M}}_r} = {\mathit{\boldsymbol{R}}_r}{\mathit{\boldsymbol{R}}_c}^{-1}{\mathit{\boldsymbol{M}}_c}-{\mathit{\boldsymbol{R}}_r}{\mathit{\boldsymbol{R}}_c}^{-1}{\mathit{\boldsymbol{t}}_c} + {\mathit{\boldsymbol{t}}_r} $$ (4)

      得3×3的旋转矩阵R和3×1的平移向量t

      $$ \left\{ \begin{array}{l} \mathit{\boldsymbol{\bar R}} = {\mathit{\boldsymbol{R}}_r}{\mathit{\boldsymbol{R}}_c}^{-1}\\ \mathit{\boldsymbol{\bar t}} = {\mathit{\boldsymbol{t}}_r}-{\mathit{\boldsymbol{R}}_r}{\mathit{\boldsymbol{R}}_c}^{-1}{\mathit{\boldsymbol{t}}_c} \end{array} \right. $$ (5)

      3) 传感器阵列标定。为了对各自传感器的安置位置与姿态参数进行标定,本文提出了一种结合固定标靶解算与迭代点间距离最小化、由粗到精的标定阵列RGB-D相机外参数标定方法。

      RGB-D相机阵列中俯视、正视、仰视3相机分别为abc,以正视相机作为坐标系基准,其间的坐标转换关系可描述为:

      $$ {\mathit{\boldsymbol{C}}_b} = {\mathit{\boldsymbol{T}}_1} \cdot {\mathit{\boldsymbol{C}}_a} = {\mathit{\boldsymbol{T}}_2} \cdot {\mathit{\boldsymbol{C}}_c} $$ (6)

      式中, Ci为各个相机坐标系下的物方齐次坐标; T1为相机a到相机c的4×4变换矩阵; T2为相机c到相机b的变换矩阵。

      本文设计构建了标定场,并在其中布设自制高反射与对比度的控制点靶标。使用地面基站激光扫描仪Riegl VZ-400采集标定场数据,作为标定场3D几何结构真值。令VZ-400数据坐标系为Ct,则有:

      $$ {\mathit{\boldsymbol{C}}_t} = {\mathit{\boldsymbol{T}}_B} \cdot {\mathit{\boldsymbol{C}}_b} = {\mathit{\boldsymbol{T}}_A} \cdot {\mathit{\boldsymbol{C}}_a} = {\mathit{\boldsymbol{T}}_C} \cdot {\mathit{\boldsymbol{C}}_c} $$ (7)

      Ct中一靶标控制点为Xt,其对应在Cb中的点坐标为Xb,则有:

      $$ {\mathit{\boldsymbol{X}}_t} = {\mathit{\boldsymbol{T}}_B} \cdot {\mathit{\boldsymbol{X}}_b} $$ (8)

      选择3对以上的控制点对,通过SVD方法[16]解算获得坐标系Ct到坐标系Cb的空间变换矩阵TB,同理获得坐标系Ct到坐标系Ca的空间变换矩阵TA和坐标系Ct到坐标系Cb的空间变换矩阵TC。RGB-D点云数据较激光点云数据稀疏,人工选择控制点精度有限,直接通过少量控制标靶来解算传感器精确位姿变换难以实现高精度安置标定。在基于标靶的粗检校的基础上,本文将VZ-400采集到的激光点云作为基准点云,RGB-D相机采集的点云作为待配准点云,使用点对面迭代最近点(iterative closest point, ICP)算法[17]优化初始变换矩阵TATBTC。有别于传统ICP算法采用的点到点距离误差函数,本文从室内数据多平面的特点出发,采用点到面的距离作衡量点云匹配度的指标,优化目标函数为:

      $$ {{\mathit{\boldsymbol{\bar T}}}_b} \leftarrow \mathop {\arg \min }\limits_{{\mathit{\boldsymbol{T}}_b}} \left\{ {\sum\limits_i {{w_i}{{\left\| {{\mathit{\boldsymbol{\eta }}_i} \cdot \left( {{\mathit{\boldsymbol{T}}_b}{\mathit{\boldsymbol{P}}_t}-{\mathit{\boldsymbol{P}}_b}} \right)} \right\|}^2}} } \right\} $$ (9)

      式中, Tb为转换模型的初始估计;Tb为优化后的转换模型;ηiPb点的法向量;wi为点对(Pt, Pb)对应的权值,即wi= nai· nbinainbiab的法向量。

      将利用标靶解算获得的初始转换矩阵TATBTC分别作为ICP算法初始值,通过迭代修正变换参数,使目标点云和参考点云达到最佳匹配,获得修正后的转换矩阵TATBTC。则外标定参数T1T2可记为:

      $$ \left\{ \begin{array}{l} {\mathit{\boldsymbol{T}}_{\rm{1}}} = {{\mathit{\boldsymbol{\bar T}}}_B}^{-1} \cdot {{\mathit{\boldsymbol{\bar T}}}_A}\\ {\mathit{\boldsymbol{T}}_{\rm{2}}} = {{\mathit{\boldsymbol{\bar T}}}_B}^{-1} \cdot {{\mathit{\boldsymbol{\bar T}}}_C} \end{array} \right. $$
    • 本文实验选择边长为0.03 m的5×7的棋盘格图案,制作成A4大小的平面标定板。

      通过标定板数据集分别标定彩色相机和红外相机的内参数以及相机外参数。共采集1 041组Kinect V2影像,详细数据见表 1。Kinect V2彩色相机分辨率为1 920×1 080像素,红外相机分辨率为512×424像素,输出深度图像的分辨率大小与红外图像相同。

      表 1  标定数据集

      Table 1.  Calibration Dataset

      传感器编号 红外影像/幅 彩色影像/幅 同步影像对/组
      1 105 112 112
      2 125 131 133
      3 109 106 108

      标定实验利用Matlab平台的Camera Calibrator工具包完成彩色相机和红外相机的内参标定工作。通过判断标定计算结果中的各影像的重投影误差来判断是否将该影像纳入下一次迭代计算。本文剔除异常标定图像的标准为该图像上重投影误差的均值超过0.5个像素(彩色相机)或0.15个像素(红外相机),最终得到标定参数的精度如表 2所示。

      表 2  内参数标定的重投影误差/像素

      Table 2.  Reprojection Errors of Intrinsic Calibration/Pixel

      相机 最大残差 均方根误差
      彩色相机1 0.856 3 0.183 0
      红外相机1 0.379 3 0.082 6
      彩色相机2 0.998 6 0.164 4
      红外相机2 0.311 4 0.069 5
      彩色相机3 0.807 1 0.237 7
      红外相机3 0.363 4 0.090 9

      利用张正友法标定相机,不仅可以得到相机的内参数,还可获得每一张标定图像中棋盘格标定板的参数平面。将彩色相机和红外相机同时采集的影像对进行配对,利用§1.2所述外参标定方法,解算两个相机的相对位姿参数。

      实验中,利用红外相机内参标定过程中获得的标定板平面作为真值,插值计算棋盘格矩形区域对应像点的深度理论值,与Kinect V2解算所得深度图像对应区域进行对比,对设备深度精度进行评价,并研究深度误差在图像中的分布规律。图 2显示了深度误差在X轴和Y轴的分布情况,图 3显示了深度误差在像平面XOY上的分布。

      图  2  各传感器在X轴方向和Y轴方向深度误差分布

      Figure 2.  Difference Distribution of Each Sensor Relative to X-coordinate and Y-coordinate

      图  3  各传感器在XOY平面深度误差分布

      Figure 3.  Difference Distribution of Each Sensor on XOY-Plane

      图 2图 3可以看出,标定后的误差分布并不是完全的随机误差。文献[7]对Kinect的误差源进行了分析,并提出了用样条曲线对深度数据进行改正的方法,但在实际应用中由于影响因素过多,无法获得理想的效果。Kinect深度测量误差模型不在本文关注范围内,故将此深度误差认为是系统偏差,对其添加统一系统差改正量。对误差进行统计,各传感器深度数据存在大小不等的均值在-0.02~-0.04 m之间的系统误差,且不符合常见误差分布模型(如高斯模型等)。本文分别将各个传感器的深度误差均值作为其补偿参数,对深度图像进行改正。

      各个子传感器自身标定完成后,即可进行传感器阵列外方位元素标定。本文实验在2.5×2×3 m3的空间内布设了20个高对比度标靶作为室内标定场。为了兼顾颜色对比度和反射强度对比度,本文的标靶选取白色光面胶带材质作为标靶前景、黑色大颗粒塑胶材料作为标靶背景制作而成。该靶标在激光点云和ToF点云中的表现如图 4所示。

      图  4  强对比标靶点云图样

      Figure 4.  High-Contrast Target Point Cloud Pattern

      各个子传感器可同时观测到4个以上不共面的高反标靶。参照数据采用Riegl VZ-400扫描仪采集,角度分辨率为0.02°。

      分别从子传感器数据和地面激光扫描仪(terrestrial laser scanner,TLS)参照数据中采集标靶位置,利用§1.2所述方法分别解算子传感器的位姿参数,得到初始变换估计对各个点云进行融合(见图 5)。

      图  5  初始变换估计

      Figure 5.  Initial Transformation

      初始变换估计将各子传感器数据从传感器坐标系转换到阵列坐标系,作为下一步ICP精化的初始值。图 6展示了ICP精化过程,其中图 6右侧从上到下依次为参考点云、初始估计、ICP精化的结果。经过统计计算,其初始估计的精度为0.008 m,ICP精化后的精度达到了0.005 m。由于ICP算法以全部数据作为观测值,收敛于局部最优点,当提供的初始估计精度足够时,此局部最优点等效于全局最优点。因此,经过ICP精化后,阵列点云的平均误差和误差分布都得到了改善。

      图  6  ICP精化

      Figure 6.  Improvement of ICP Process

    • 本文利用最小二乘拟合平面计算参照点云(图 7(a))的局部法向量,并计算RGB-D相机阵列单帧数据与参照数据之间的点到平面距离,得到RGB-D相机阵列标定误差分布(图 7(b))。图 7中较高误差区域分布在物体的边缘、数据帧的边缘以及反射率较高的物体表面, 中等误差区域分布在墙角、墙面和天花板夹角附近,其余的大面积水平和垂直平面均属于低误差区域。

      图  7  标定场误差分布

      Figure 7.  Error Distribution of Calibration Data

      对比阵列数据与参照数据,得到单帧数据的误差分布情况:平均误差为0.005 m,均方根误差为0.01 m,最大误差为0.185 m,单帧中95%的数据精度优于0.025 m,误差分布直方图见图 8。结合ToF相机的测量原理和被测物体的光学与物理特性分析误差分布的规律。首先,高误差区域分布在形态复杂的物体边缘、局部曲率改变较大的部分,根据文献[17]对Kinect V2仪器特性的研究,可知导致这种现象的原因共有两个:一是由于材料反射率较高,发射的红外光束无法被红外摄像机检测到;二是由于红外发射器和红外相机不同光轴,会在复杂物体的边缘产生遮挡阴影效应,从而产生错误的深度测量结果。其次,中等误差分布区域出现在两平面相交的位置,文献[18]在其对ToF相机多路径干涉的研究中指出,由于测量光束的多路径干涉效应,深度测量值会偏离实际的位置,而平面相交的区域正是多路径干涉的发生场景,从而导致了此类场景的精度损失。

      图  8  RGB-D相机阵列单帧误差分布直方图

      Figure 8.  Histogram of Error Distribution in Single Data Frame of RGB-D Camera Array

      实验结果表明,本文提出的阵列系统整体精度较高,但在少数细节局部区域精度不足。对于表面起伏较少、大面积建筑结构信息表现良好;但对于部分材质光滑的物体表面与边缘区域,受制于低成本RGB-D相机有限的面阵分辨率与环境因素的影响,精度略低于墙面、天花板等建筑物固有结构。故本阵列系统适用于建筑物内部的结构特征测量应用,包括机器人自主定位、室内点云数据采集、BIM构建,无法应用于地籍测量等几何数据精度要求较高的工作。

    • 在位置环境中进行自主定位和建图,是同时定位与制图(simultaneous localization and mapping, SLAM)要解决的问题。本文采用目前效果最好的RGB-D实时SLAM系统——RTAB-Map[19-21],将平置传感器的定位结果作为整个传感器的位姿参数,解算其余子传感器的空间位姿变换,最终实现数据的完整拼接,如图 9所示。

      图  9  数据拼接实验结果

      Figure 9.  Experimental Results of Data Fusion

    • 本文研究了消费级深度相机的仪器特性,提出了标定多个消费级RGB-D相机组成传感器阵列的方法。实验结果表明,该方法能高效、完整地采集室内有色点云。在标定场环境下,与参考激光点云进行对比,其最大误差为0.185 m,其中单帧95%的数据精度优于0.025 m,可以满足对精度要求不高的室内制图、室内三维建模、机器人自主导航与定位等任务需要,具有一定的应用价值。后续将以SLAM技术为研究重心,发挥大视场RGB-D相机阵列的数据特点,进行基于视觉的室内移动测量研究。

参考文献 (21)

目录

    /

    返回文章
    返回