文章信息
- 米晓新, 杨必胜, 董震
- MI Xiaoxin, YANG Bisheng, DONG Zhen
- 车载激光点云道路场景可视域快速计算与应用
- Fast Visibility Analysis and Application in Road Environment with Mobile Laser Scanning Data
- 武汉大学学报·信息科学版, 2020, 45(2): 258-264
- Geomatics and Information Science of Wuhan University, 2020, 45(2): 258-264
- http://dx.doi.org/10.13203/j.whugis20180380
-
文章历史
收稿日期: 2019-05-23

城市环境是由建筑物、道路及其附属设施、民众等共同构成的一个复杂的动态系统。基础设施的科学安置对城市的高效运作至关重要,故科学高效的城市空间分析必不可少,而可视域计算是空间分析的一个重要组成部分[1]。道路是城市中人、车流量最大的场景,其主要由行人、机动车、道路地物要素(交通标志牌、交通信号灯、行道树、路灯、道路等)构成,道路系统中的任何一个要素出现异常都可能导致交通事故。交通事故原因主要分为驾驶员违规驾驶的主观原因和道路基础设施安置不当的客观原因[2],由于基础设施安置不当导致事故时,成因之一则是交通标志牌被遮挡造成道路信息获取不足。当机动车位于交通标志的通视盲区时,驾驶员或视觉传感器无法获取完整的交通标志信息,因而不能及时作出正确合理的决策,有可能导致交通事故的发生[3-7]。还有部分交通事故是由夜晚道路照明不良所导致,夜间树木对路灯光线的遮挡导致道路照明状况不佳,严重影响夜间行车安全[8]。综上所述,对道路环境中相关地物的可视域计算与分析至关重要。
1 空间可视域分析通视分析首先出现在军事领域中,随着经济与技术的发展,其在无线电通讯及空间规划领域也得到了广泛应用。由于其原理简单、应用范围广,几乎所有的GIS软件都有可视域计算功能,但对于大范围、遮挡严重的城区环境,可视域计算仍然面临很大挑战。
GIS可视域计算基本分为3类:(1)两点之间的通视计算;(2)可视域计算;(3)视点能见度计算。总体来说,传统的可视域计算方法首先对三维模型如数字高程模型(digital elevation model,DEM)、数字地形模型(digital terrain model,DTM)等插值,构建满足精度要求的格网;然后在模型中添加建筑物、植被等图层;最后计算给定视点的可视域[9]。然而,目前三维模型构建的自动化水平、精度和完整度等很难满足城区环境可视域分析的要求。车载激光扫描系统可以高速度、高密度、高精度地获取道路及两侧地物的三维坐标和属性信息(如反射强度、回波波形等),在无需建模的情况下直接对地物目标进行可视域分析,为大规模城市场景可视域计算与分析提供了一种全新的技术手段[10]。目前,基于激光点云的城市场景可视域计算方法主要包括基于面元[11-12]、基于体素与基于HPR(hidden point removal)的方法[13-14]。基于DEM面元的可视域计算一般需将已经生成的DEM规则格网化,而直接对格网遍历计算,效率非常低下。为加速计算,文献[11]通过构建金字塔四叉树空间索引实现格网的快速查找索引,在提高查找、计算效率的同时,也带来了数据冗余的问题;同时,可视域计算结果的精度会受到格网分辨率的影响。文献[12]基于三角网面片计算可视域,三角网对地物表面的描述精度高于基于DEM插值形成的格网,其通过切片算法计算地形可视域。基于面元的可视域计算一般需要根据点云构建目标表面的三角网或规则DEM面片,而构建组织三角网、DEM是一项非常耗时的工作。基于HPR的可视域计算首先将视场范围内的点云根据到视点距离的反比关系映射到反转空间,并在映射空间中构建凸包,落在凸包表面的点即为原始可视点[13]。基于HPR的方法不需要构建地物表面三角网,可以直接计算出视点视场内的可视域,但需要求解凸包。道路环境点云数据量巨大,求解凸包非常耗时,而且只能计算出点云中的直接通视点,不适合应用于通视空间的计算。
基于道路环境通视空间的计算需求以及车载激光点云的具体特点,本文采用基于体素的深度缓存方法计算视点在视场内的通视区域(通视空间),避免了模型构建以及凸包计算的过程;同时,本文通过对道路场景交通标志牌的遮挡分析、路灯有效照明区域的计算,验证了方法的有效性。
2 可视域计算方法道路环境中地物目标可视域计算的主要流程包括视场快速估计和可视域估计分析等两个步骤,方法的整体流程见图 1。
|
| 图 1 三维可视域估计流程图 Fig. 1 Flowchart of 3D Viewshed Estimation |
视场估计是可视域计算的关键步骤,包括视场基本空间参数估计、视场精化估计。空间参数包括视点位置、视场范围。视点一般为研究对象所处的空间位置,视场一般根据特定应用场景中的视角、视距确定。
由于点云数据海量,需要在可视域估计之前确定有效视场范围,从而降低可视域估计的计算复杂度。本文采用由粗到精的动态视场确定策略,具体方法如下:在可视域估计中,噪声点的存在可能会导致局部可视域计算结果不准确,故对测量过程中的各种系统误差和随机误差导致的噪声点,本文通过PCL(point cloud library)[15]中的统计离群点移除算法将其剔除。
由于点云具有数据量大、空间离散性、分布不均匀等特点,为了提高点云数据组织与管理效率,需要对点云构建空间索引[16]。本文分如下步骤构建空间索引:首先基于
|
| 图 2 空间索引示意图 Fig. 2 Diagram of Spatial Index |
根据§2.1确定的视点及视场范围内的叶子结点,本文通过基于体素的深度缓存算法计算点云中视点的可视域。将视场中的叶子结点由原始坐标转换到以视点为坐标原点的相机坐标系
| $ \left[\begin{array}{c}{X}_{c}\\ {Y}_{c}\\ {Z}_{c}\\ 1\end{array}\right]={\mathit{\boldsymbol{C}}}^{-1}·\left[\begin{array}{c}{X}_{u}\\ {Y}_{u}\\ {Z}_{u}\\ 1\end{array}\right] $ | (1) |
式中,
| $ \mathit{\boldsymbol{N}}=(-1·\mathit{\boldsymbol{r}}).n\left(\right) $ | (2) |
| $ \mathit{\boldsymbol{U}}=(\mathit{\boldsymbol{u}}\times \mathit{\boldsymbol{N}}).n\left(\right) $ | (3) |
| $ \mathit{\boldsymbol{V}}=(\mathit{\boldsymbol{N}}\times \mathit{\boldsymbol{U}}).n\left(\right) $ | (4) |
| $ \mathit{\boldsymbol{R}}=\left[\begin{array}{cc}\begin{array}{cc}{U}_{x}& {V}_{x}\\ {U}_{y}& {V}_{y}\end{array}& \begin{array}{cc}{N}_{x}& 0\\ {N}_{y}& 0\end{array}\\ \begin{array}{cc}{U}_{z}& {V}_{z}\\ 0& 0\end{array}& \begin{array}{cc}{N}_{z}& 0\\ 0& 1\end{array}\end{array}\right] $ | (5) |
| $ {\mathit{\boldsymbol{T}}}^{-1}=\left[\begin{array}{cc}\begin{array}{cc}1& 0\\ 0& 1\end{array}& \begin{array}{cc}0& -{x}_{c}\\ 0& -{y}_{c}\end{array}\\ \begin{array}{cc}0& 0\\ 0& 0\end{array}& \begin{array}{cc}1& -{z}_{c}\\ 0& 1\end{array}\end{array}\right] $ | (6) |
| $ {\mathit{\boldsymbol{C}}}^{-1}={\mathit{\boldsymbol{R}}}^{\mathrm{T}}·{\mathit{\boldsymbol{T}}}^{-1} $ | (7) |
式中,
经坐标转换后,视场范围内的叶子结点体素均被转换到以视点为原点的相机坐标系下,将视场中的所有叶子结点体素根据透视投影变换到距离视点距离为
设
| $ \left[\begin{array}{c}{x}_{p}\\ {y}_{p}\end{array}\right]=\frac{f}{\left|{N}_{P}\right|}\bullet \left[\begin{array}{c}{U}_{P}\\ {V}_{P}\end{array}\right] $ | (8) |
待所有叶子结点体素均投影到像平面上后,统计落入深度缓存平面每个栅格中距离视点距离最近的非空叶子结点体素,将其作为直接可视体素,所有直接可视体素中的点的集合即为可视地物表面。如图 3所示,
|
| 图 3 深度缓存示意图 Fig. 3 Diagram of Depth Buffering |
可视域计算根据输出分为通视空间与通视面的计算,若要求输出直接通视地物,则输出所有直接可视叶子结点体素中的点集;若要求输出通视空间,则输出像平面各栅格中到视点距离小于直接可视体素到视点距离的空叶子结点体素。
3 地物可视域分析实验实验中数据处理参数取值见表 1。根结点的尺寸取值参考文献[17];当叶子结点尺寸较小时,叶子结点数量较多,导致计算效率低,当叶子结点尺寸取值较大时,导致计算结果不满足可视域精度需求,实验发现叶子结点体素尺寸为
| 参数名称 | 参数意义 | 参数取值/m |
| gl | 根结点格网长度 | 0.5 |
| gw | 根结点格网宽度 | 0.5 |
| vx | 叶子结点体素长度 | 0.25 |
| vy | 叶子结点体素宽度 | 0.25 |
| vz | 叶子结点体素高度 | 0.25 |
| dx | 深度缓存平面格网长度 | 0.25 |
| dy | 深度缓存平面格网宽度 | 0.25 |
实验所用数据为由Optech Lynx SG1移动激光扫描系统获取的武汉大学部分路段点云数据(见图 4)。该设备有2个激光扫描仪,最大观测距离为250 m,测距精度可达5 mm,绝对精度可达5 cm。实验中视点位于距离地面高度1.5 m处(驾驶员眼睛距离地面的高度一般在1.0~2.5 m之间),为得出此视点下对交通标志牌的通视性,视场为视点与交通标志牌的最小包围圆锥体。
|
| 图 4 实验路段点云数据 Fig. 4 Point Cloud Data of Experimental Road |
实验先根据文献[17]中的方法提取出交通标志牌与道路,然后将道路栅格化,道路格网中心对于标志牌的可见度代表当前道路格网覆盖路面对目标交通标志牌的可视度。图 5(a)为视点A对于该交通标志牌的通视状况,图 5(b)为视点B对于该交通标志牌的通视状况。根据本文提出的可视域计算方法,对标志牌的可视度定义为视点对标志牌的直接可见面积占标志牌总面积的比例。图 5(c)为采用本文方法在道路上任意视点对该交通标志牌的可视度输出结果,图 5(d)为该道路对于该交通标志牌的可视度渲染输出结果的部分道路放大图。由此可见,本文方法可直接在点的基础上计算出交通标志牌的通视空间而不需要构建模型,可以及时发现道路旁侧的交通标志牌通视盲区,对安全驾驶有重要意义。
|
| 图 5 交通标志牌可视域 Fig. 5 Viewshed of Traffic Sign |
实验所用数据为车载激光扫描系统获取的京承高速路段数据。根据参考文献[17]对非地面点分类并提取路灯,在地面点中提取道路。通过分类结果计算得到相关参数为:路灯灯高13 m,同侧相邻两灯距离为36.2 m,路灯仰角为15°,有效路宽为15.0 m。根据道路照明发光二极管(light emitting diode,LED)的光源特点及经过二次配光后的路面光照规律建立灯光在路面上的分布模型。目前,为满足道路照明要求及节约能源,道路照明一般将多个LED运用透镜再次配光,使其在路面上的照度呈沿路面分布的近似矩形光场。配光后单个路灯的有效照明区域沿道路延伸方向分布在±60°之间,垂直于道路延伸方向分布在±30°之间[18]。经过再次配光后,单个路灯的路面照度根据LED路灯的光强配光曲线及路灯地面照度的分布规律得到路面照度的关系[19],从而推导出路面某点照度
| $ E(x, y, z)=\frac{{I}_{o}s\left[{t}_{x}\right(x-{x}^{\text{'}}{)}^{2}+{t}_{y}(y-{y}^{\text{'}}{)}^{2}+1]}{\left[\right(x-{x}^{\text{'}}{)}^{2}+(y-{y}^{\text{'}}{)}^{2}+(h+z-{z}^{\text{'}}{)}^{2}{]}^{3 \mathord{\left/ {\vphantom {3 2}} \right. } 2}} $ | (9) |
式中,
|
| 图 6 路灯照明简图 Fig. 6 Sketch of Streetlamp Lighting |
通过对道路照明路面照度分布的模拟,最终得出路面照度分布结果,如图 7所示。图 7(a)为单灯照明路面照度渲染输出结果,单灯的有效照明区域为灯下矩形区域[18],即图 7(a)中矩形红框内区域;图 7(b)为同侧相邻两路灯的路面照度渲染输出结果,两灯之间路面上的照度为相邻两灯照度叠加的结果,有效照明区域为图 7(b)中红色矩形框内区域。表 2为矩形长、宽及矩形内的照度参数。根据表 2,假设单灯有效区域内最大照度为26.67 lx,则有最小照度为17.68 lx,平均照度为20.81 lx;在同侧相邻路灯的照明有效区域内,最大照度为27.51 lx,最小照度为17.68 lx,平均照度为21.57 lx。以上两个模型均满足《城市道路照明设计标准CJJ45—2006》中一级道路平均照度为20~30 lx的要求。当前实验数据中道路旁侧行道树及广告牌对路灯灯光均无遮挡,但对于一些行道树枝叶繁茂或者广告牌布设不合理的路段,由于树木枝叶及广告牌遮挡路灯光线,导致最终照到路面上的照度分布不满足道路照明要求,常见的情况是路面光照明暗相间、分布不均,车辆在如此照明条件下行驶时无法获得正确的路况信息,有可能发生车祸。后续可以根据具体研究路段中路灯的布设方式,建立路面照度模型并计算输出路面照度分布情况,根据路面照度分布情况判断路面照度是否符合路面照明标准,以便及时对照明不良路段开展故障排查工作,保障民众人身财产安全。
|
| 图 7 路面照度分布模拟 Fig. 7 Simulation of Road Illumination Distribution |
| 实验区域参数 | 单灯 | 相邻两灯 |
| 有效区域宽度/m | 12.12 | 12.12 |
| 有效区域长度/m | 45.03 | 81.23 |
| 有效区域内路面照度最大值/lx | 26.67 | 27.51 |
| 有效区域内路面照度最小值/lx | 17.68 | 17.68 |
| 有效区域内照度平均值/lx | 20.81 | 21.57 |
本文提出了基于深度缓存的道路场景可视域快速计算方法,并将该方法用于分析城市环境中道路、驾驶员、交通标志牌、路灯、树木等之间的空间关系。通过估计道路两旁的交通标志牌的有效作用空间,分析交通标志牌的通视盲区,对于道路安全养护、无人驾驶环境的安全分析有决策支持作用。通过构建道路环境路灯的照明模型,分析路面照度分布,快速探测道路照明不良路段,对夜晚安全驾驶具有重要意义。总而言之,本文提出的方法可以直接快速地对道路环境中对象之间的通视性、可见度等进行计算分析,为基础设施科学安置、基础设施运行健康状况监测以及城市形态分析、城市规划等提供科学的辅助决策。
未来的工作包括根据该模型对城市建筑物窗口的直接可见绿地面积进行计算等[20]。除此之外,为使可视域、可视度计算结果更加准确,未来的工作还包括路面动态目标探测及滤除,以消除动态目标对计算结果的影响。
| [1] |
Li Qingquan. From Geomatics to Urban Informatics[J]. Geomatics and Information Science of Wuhan University, 2017, 42(1): 1-6. (李清泉. 从Geomatics到Urban Informatics[J]. 武汉大学学报·信息科学版, 2017, 42(1): 1-6. ) |
| [2] |
Pei Yulong, Ma Ji. Research on Countermeasures for Road Condition Causes of Traffic Accidents[J]. China Journal of Highway and Transport, 2003, 16(4): 77-82. (裴玉龙, 马骥. 道路交通事故道路条件成因分析及预防对策研究[J]. 中国公路学报, 2003, 16(4): 77-82. DOI:10.3321/j.issn:1001-7372.2003.04.017 ) |
| [3] |
Huang P, Cheng M, Chen Y, et al. Traffic Sign Occlusion Detection Using Mobile Laser Scanning Point Clouds[J]. IEEE Transactions on Intelligent Transportation Systems, 2017, 18(9): 2 364-2 376. DOI:10.1109/TITS.2016.2639582 |
| [4] |
Harris M. Documents Confirm Apple is Building Self-driving Car[J]. The Guardian, 2015, 14(8): 1-3. |
| [5] |
Gomes L. When will Google's Self-driving Car Really be Ready?[J]. IEEE Spectrum, 2016, 53(5): 13-14. DOI:10.1109/MSPEC.2016.7459105 |
| [6] |
Yu Zhanbo. Foton and Baidu Join Hands Aiming to Internet of Vehicle and Driverless Vehicles[J]. Commercial Vehicle, 2016(11): 50-51. (于占波. 福田与百度合作:瞄准车联网和无人驾驶[J]. 商用汽车, 2016(11): 50-51. DOI:10.3969/j.issn.1009-4903.2016.11.011 ) |
| [7] |
Paden B, Čap M, Yong S Z, et al. A Survey of Motion Planning and Control Techniques for Self-driving Urban Vehicles[J]. IEEE Transactions on Intelligent Vehicles, 2016, 1(1): 33-55. DOI:10.1109/TIV.2016.2578706 |
| [8] |
Wang Jialiang. Analysis on the Influencing Factors of Traffic Safety in Road Lighting Design—Based on the Drivers' Visual Characteristics[J]. Building Electricity, 2006, 25(1): 33-35. (王嘉亮. 道路照明设计中交通安全性的影响因素分析——基于驾驶员视觉特性的研究[J]. 建筑电气, 2006, 25(1): 33-35. ) |
| [9] |
Popelka S, Vozenilek V. Landscape Visibility Analysis and Their Visualization[C]. The 1st International Workshop on Pervasive Web Mapping, Geoprocessing and Services, Como, Italy, 2010
|
| [10] |
Lu Xiushan, Li Qingquan, Feng Wenhao, et al. Vehicle-Borne Urban Information Acquisition and 3D Modeling System[J]. Engineering Journal of Wuhan University, 2003, 36(3): 76-80. (卢秀山, 李清泉, 冯文灏, 等. 车载式城市信息采集与三维建模系统[J]. 武汉大学学报(工学版), 2003, 36(3): 76-80. ) |
| [11] |
Zhang Bin, Zhang Zejian, Guo Li, et al. Key Technologies of Terrain Viewshed Analysis Based on DEM[J]. Computer Science, 2013, 40(9): 284-287. (张斌, 张泽建, 郭黎, 等. 基于DEM的地形可视域分析关键技术[J]. 计算机科学, 2013, 40(9): 284-287. DOI:10.3969/j.issn.1002-137X.2013.09.063 ) |
| [12] |
Sun Yong, Wang Qingshan, Wu Guanxiang. Slicing Calculation Method of Terrain Viewshed Based on the TIN[J]. Journal of Geomatics Science and Technology, 2014, 31(1): 8-12. (孙永, 王青山, 吴官祥. 地形可视域的TIN切片计算方法[J]. 测绘科学技术学报, 2014, 31(1): 8-12. DOI:10.3969/j.issn.1673-6338.2014.01.003 ) |
| [13] |
Katz S, Tal A. On the Visibility of Point Clouds[C]. IEEE International Conference on Computer Vision, Santiago, Chile, 2015
|
| [14] |
Alsadik B, Gerkke M, Vosselman G. Visibility Analysis of Point Cloud in Close Range Photogrammetry[J]. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2014, 2(5): 9-16. |
| [15] |
Rusu R B, Cousins S. 3D is Here: Point Cloud Library (PCL)[C]. IEEE International Conference on Robotics and Automation, Shanghai, China, 2011
|
| [16] |
Zhang Rui, Li Guangyun, Wang Li, et al. A New Method of Hybrid Index for Mobile LiDAR Point Cloud Data[J]. Geomatics and Information Science of Wuhan University, 2018, 43(7): 993-999. (张蕊, 李广云, 王力, 等. 车载LiDAR点云混合索引新方法[J]. 武汉大学学报·信息科学版, 2018, 43(7): 993-999. ) |
| [17] |
Yang B, Dong Z, Zhao G, et al. Hierarchical Extraction of Urban Objects from Mobile Laser Scanning Data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 99: 45-57. DOI:10.1016/j.isprsjprs.2014.10.005 |
| [18] |
Luo Yuan, Mao Jianwei. Research on Light Distribution Schemes for LED Street Light[J]. Light & Lighting, 2011, 25(2): 43-46. (罗元, 毛建伟. LED路灯配光方案研究[J]. 灯与照明, 2011, 25(2): 43-46. DOI:10.3969/j.issn.1008-5521.2011.02.010 ) |
| [19] |
Xing Haiying, Gao Tiecheng. LED Road Lighting Optics Illumination and Analysis[J]. Transactions of China Electrotechnical Society, 2015, 30(2): 242-247. (邢海英, 高铁成. LED路灯光学设计与分析[J]. 电工技术学报, 2015, 30(2): 242-247. DOI:10.3969/j.issn.1000-6753.2015.02.032 ) |
| [20] |
Li Jia. The Effects of the Urban Green Space[J]. Science and Technology Innovation Herald, 2008(33): 77. (李佳. 城市绿地的作用[J]. 科技创新导报, 2008(33): 77. DOI:10.3969/j.issn.1674-098X.2008.33.058 ) |
2020, Vol. 45


