Message Board

Respected readers, authors and reviewers, you can add comments to this page on any questions about the contribution, review,        editing and publication of this journal. We will give you an answer as soon as possible. Thank you for your support!

Name
E-mail
Phone
Title
Content
Verification Code
Volume 43 Issue 1
Jan.  2018
Turn off MathJax
Article Contents

SHEN Yilang, AI Tinghua, ZHAO Rong. A Method for Color Raster Map Annotation Recognition[J]. Geomatics and Information Science of Wuhan University, 2018, 43(1): 145-146. doi: 10.13203/j.whugis20150381
Citation: SHEN Yilang, AI Tinghua, ZHAO Rong. A Method for Color Raster Map Annotation Recognition[J]. Geomatics and Information Science of Wuhan University, 2018, 43(1): 145-146. doi: 10.13203/j.whugis20150381

A Method for Color Raster Map Annotation Recognition

doi: 10.13203/j.whugis20150381
Funds:

The National Natural Science Foundation of China 41531180

the National High Technology and Development Program of China 2015AA1239012

More Information
  • Author Bio:

    SHEN Yilang, PhD candidate, specializes in computer vision. E-mail: 1147906999@qq.com

  • Corresponding author: AI Tinghua, PhD, professor. E-mail: tinghua_ai@163.net
  • Received Date: 2016-01-29
  • Publish Date: 2018-01-05
  • The annotations in raster maps contain important geographical location information, but the traditional recognition methods of raster map annotation separate annotations from geographic elements, making it difficult to deal with curved and sloping annotations. This paper proposes a method for color raster map annotation recognition based on geometric features.The method considers the orientation, size, density, and neighborhood of the connected components to extract annotation pixels, then correct s the direction by extracting the centerline of geographical elements, clustering, and rearranging annotations before finishing the recognition. We use GoogleMap in experiments, the proposed method was effective.
  • [1] Marr D.Vision:A Computational Investigation into the Human Representation and Processing of Visual Information[M]. Cambridge:the MIT Press, 2010
    [2] Chen L H, Wang J Y. A System for Extracting and Recognizing Numeral Strings on Maps[C]. The 4th International Conference on Document Analysis and Recognition, Ulm, Germany, 1997
    [3] Deseilligny M P, Men H L, Stamon G. Character String Recognition on Maps, a Rotation-invariant Recognition Method[J]. Pattern Recognition Letters, 1995, 16(12):1297-1310 doi:  10.1016/0167-8655(95)00084-5
    [4] Fletcher L A, Kasturi R. A Robust Algorithm for Text String Separation from Mixed Text/Graphics Images[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1988, 10(6):910-918 doi:  10.1109/34.9112
    [5] Goto H, Aso H.Extracting Curved Text Lines Using Local Linearity of the Text Line[J]. International Journal on Document Analysis and Recognition, 1999, 2(2):111-119 doi:  10.1007/s100320050041
    [6] Pal U, Sinha S, Chaudhuri B B. Multi-oriented English Text Line Identification[M]//Bigun J, Gustavsson T. Image Analysis. Heidelberg: Springer, 2003: 1146-1153
    [7] Velázquez A, Levachkine S. Text/Graphics Separation and Recognition in Raster-scanned Color Cartographic Maps[M]//Lladós J, Kwon Y. Graphics Recognition. Recent Advances and Perspectives. Heidelberg: Springer, 2004: 63-74
    [8] Pouderoux J, Gonzato J C, Pereira A, et al. Toponym Recognition in Scanned Color Topographic Maps[C]. the 9th International Conference on Document Analysis and Recognition, Parana, Brazil, 2007
    [9] Roy P P, Pal U, Lladós J, et al. Multi-orientedEnglish Text Line Extraction Using Background and Foreground Information[C]. the 8th IAPR International Workshop on Document Analysis Systems, Nara, Japan, 2008
    [10] 陈睿, 张祖勋, 张剑清.扫描地形图中数字高程注记的提取和识别[J].武汉大学学报·信息科学版, 2002, 27(2):194-198 http://ch.whu.edu.cn/CN/abstract/abstract4944.shtml

    Chen Rui, Zhang Zuxun, Zhang Jianqing. Identification of Digital Elevation Annotation in Scanned Map[J]. Geomatics and Information Science of Wuhan University, 2002, 27(2):194-198 http://ch.whu.edu.cn/CN/abstract/abstract4944.shtml
    [11] 张晓通, 李霖.面状要素注记智能化配置方法研究[J].武汉大学学报·信息科学版, 2008, 33(7):762-765 http://ch.whu.edu.cn/CN/abstract/abstract1636.shtml

    Zhang Xiaotong, Li Lin. Intelligent Automated Cartographic Text Placement of Area Features[J]. Geomatics and Information Science of Wuhan University, 2008, 33(7):762-765 http://ch.whu.edu.cn/CN/abstract/abstract1636.shtml
    [12] 樊红, 张祖勋, 杜道生.地图线状要素自动注记的算法设计与实现[J].测绘学报, 1999, 28(1):1-6 http://www.cqvip.com/QK/83379X/201305/45974770.html

    Fan Hong, Zhang Zuxun, Du Daosheng. The Algorithm Design and Implementation of Adding Annotation to Map for Linear Feature Automatically[J]. Acta Geodaetica et Cartographica Sinica, 1999, 28(1):1-6 http://www.cqvip.com/QK/83379X/201305/45974770.html
    [13] 周嫔, 马少平, 姜哲.基于单元合并的汉字切分算法的改进[J].中文信息学报, 1999, 13(2):33-39 http://www.cqvip.com/Main/Detail.aspx?id=3471354

    Zhou Pin, Ma Shaoping, Jiang Zhe. Modification of the Chinese Character Segmentation Method Based on Units Amalgamation[J]. Journal of Chinese Information Processing, 1999, 13(2):33-39 http://www.cqvip.com/Main/Detail.aspx?id=3471354
    [14] 海涛, 鲍远律.彩色栅格交通地图图像中道路识别与提取[J].计算机辅助设计与图形图像学学报, 2005, 17(9):2010-2014 https://www.wenkuxiazai.com/doc/1be4dd51d4d8d15abf234eb2-4.html

    Hai Tao, Bao Yuanlu. Recognition and Extraction of Road from Color Raster Traffic Map Image[J] Journal of Computer-Aided Design &; Computer Graphics, 2005, 17(9):2010-2014 https://www.wenkuxiazai.com/doc/1be4dd51d4d8d15abf234eb2-4.html
  • 加载中
通讯作者: 陈斌, bchen63@163.com
  • 1. 

    沈阳化工大学材料科学与工程学院 沈阳 110142

  1. 本站搜索
  2. 百度学术搜索
  3. 万方数据库搜索
  4. CNKI搜索

Figures(15)  / Tables(1)

Article Metrics

Article views(1531) PDF downloads(304) Cited by()

Related
Proportional views

A Method for Color Raster Map Annotation Recognition

doi: 10.13203/j.whugis20150381
Funds:

The National Natural Science Foundation of China 41531180

the National High Technology and Development Program of China 2015AA1239012

  • Author Bio:

  • Corresponding author: AI Tinghua, PhD, professor. E-mail: tinghua_ai@163.net

Abstract: The annotations in raster maps contain important geographical location information, but the traditional recognition methods of raster map annotation separate annotations from geographic elements, making it difficult to deal with curved and sloping annotations. This paper proposes a method for color raster map annotation recognition based on geometric features.The method considers the orientation, size, density, and neighborhood of the connected components to extract annotation pixels, then correct s the direction by extracting the centerline of geographical elements, clustering, and rearranging annotations before finishing the recognition. We use GoogleMap in experiments, the proposed method was effective.

SHEN Yilang, AI Tinghua, ZHAO Rong. A Method for Color Raster Map Annotation Recognition[J]. Geomatics and Information Science of Wuhan University, 2018, 43(1): 145-146. doi: 10.13203/j.whugis20150381
Citation: SHEN Yilang, AI Tinghua, ZHAO Rong. A Method for Color Raster Map Annotation Recognition[J]. Geomatics and Information Science of Wuhan University, 2018, 43(1): 145-146. doi: 10.13203/j.whugis20150381
  • 注记是地图的重要组成部分,是人们从地图中获取地理位置信息的重要途径之一。人工智能技术不断发展的今天,如何让计算机“看”懂地图,是一项具有重要价值和富有挑战性的任务。计算机视觉理论奠基者Marr[1]认为,视觉要解决的问题可以归结为“What is Where”,即“什么东西在什么地方”。从栅格地图中识别注记可以让计算机从视觉的角度理解地图的含义,获取地图中的地理位置信息,帮助计算机“看”懂地图。

    从栅格地图中进行注记识别需要考虑文字方向、文字大小、文字排列等方面。近年来,诸多学者尝试从栅格地图中提取和识别文本内容,取得了一系列成果[2-10]。文献[2]利用Hough变换和字符的无约束特征对栅格地图的数字字符进行识别,该方法可以识别不同大小的数字字符,但不适合识别英文字符;文献[4]基于Hough变化识别英文字符,该方法不适合识别弯曲的、不同大小的英文字符, 由于Hough变化只能提取直线段。文献[5]根据字符之间的局部线性特征,提出了一种可以处理多方向的、弯曲的英文字符识别方法,但不适合识别不同大小的英文字符;文献[6-7]通过探测竖直的基准线对英文字符进行识别,该方法可以识别不同字体、不同大小、不同方向的英文字符,但无法处理弯曲的英文字符;文献[8-9]分别通过分析字符的几何特性和邻近字符中心的连接角度对弯曲英文字符进行识别,但两种方法均不适合识别不同大小的英文字符。

    已有方法在对栅格地图注记进行识别时,将注记与其对应的地理要素相分离,因此难以识别倾斜注记和弯曲注记。本文以连通域单元为基本处理对象,提出了一种新的基于地理要素几何特征的注记识别方法,提高了识别倾斜注记和弯曲注记的效果。

  • 根据注记的方向,可将彩色栅格地图上的注记分为水平注记和非水平注记两种。非水平注记出现在线状或面状要素的表达当中,沿其平行线或者骨架线进行标注,注记的方向根据要素的倾斜角而定[11-12]

    图 1所示,在一张GoogleMap(谷歌地图)瓦片中,注记“KFC”为水平注记,而注记“Oriole Dr”为非水平注记,其方向与道路中心线的走向一致。

    Figure 1.  A Tile from GoogleMap in PNG Format

  • 从一幅彩色栅格地图中进行注记识别之前,需要对栅格图像进行预处理,不仅要去除图像中的噪声,校正倾斜注记和弯曲注记,还需要对注记进行聚类分析以区分单个单词。因此,本文提出了一种新的彩色栅格地图注记识别策略。

    (1) 注记提取:初步提取可能的注记像素集合,利用注记连通域单元特征去噪。

    (2) 注记定向:提取地理要素中心线,利用中心线对非水平注记进行方向确定。

    (3) 注记聚类:利用注记连通域单元之间的距离对注记进行聚类,以得到单词。

    (4) 注记识别:对非水平注记进行方向校正并重新排列,利用文字识别软件进行识别。

  • 彩色栅格地图上的色彩种类较多,注记颜色也可能有多种。一般情况下,相对于地图上其他的要素,注记的色彩灰度值较低。因此,通过将注记的红绿蓝(RGB)颜色值转换成灰度值,并给定一个阈值对图像进行二值化处理便可以获得初步的注记像素集合。对于一些比较复杂的栅格地图,可以使用其他的注记像素分离方法,如利用k均值进行图像分割。本文利用灰度化的方获取原始图像初步的注记像素集合。

    初步提取的注记像素集合中可能会含有噪声,相对于噪声而言,注记在大小和排列上具有一定的特征和规律。因此,为了消除噪声,本文提出了基于连通域单元特征的噪声消除方法。连通域单元就是每个连通域的最小矩形区域[13]

    图 2所示,首先将注记的连通域分为四种类型:①包含多像素、与中心线不相交的水平连通域;②包含多像素、与中心线相交的水平连通域;③包含多像素、与中心线相交的非水平连通域;④包含单像素的连通域。通过判定连通域单元的方向、尺寸、密度、邻域这4个方面特征值来对其进行取舍,连通域单元i的特征值定义如下。

    Figure 2.  Types of Annotation Connected Component

    (1) 方向特征值Ri:规定水平向右为0°,顺时针为负,逆时针为正,定义连通域的方向角度变化范围为(-90°, 90°],连通域单元i的方向特征值等于连通域的方向角度值。当连通域的方向为水平时,对应连通域单元i的方向特征值Ri= 0°。

    (2) 尺寸特征值Si:尺寸特征值Si包括3个方面,即连通域单元的高度Hi、宽度Wi以及两者的比值Ti。可用一个数组表示,即:

    (3) 密度特征值Di:连通域单元i的密度指一个连通域单元中所含黑色像素点的百分比,密度特征值如式(1):

    式中,Num为连通域单元i中黑色像素点个数,Hi为连通域单元i的高度,Wi为连通域单元i的宽度。

    (4) 邻域特征值Ni:定义连通域单元i的邻域包括两个区域。

    图 3所示,图中1、2区域分别代表连通域单元i的右邻域、左邻域。对于当前连通域单元i的右(左)边界中心点x1(x2),当给定一个阈值m,若x1(x2)向右(左)移动m长度到y1(y2),当y1(y2)位于某一个连通域单元j内,而连通域单元j不与中心线相交,并且其尺寸特征值Sj和密度特征值Dj均在阈值范围内,则称当前连通域单元i满足右(左)邻域条件。若连通域单元i满足右(左)邻域条件,则Ni=1(Ni=2)。

    Figure 3.  Neighborhood of Connected Component

    一般而言,与道路相交的注记均与道路中心线走向一致,如图 1中的注记“Oriole Dr”,并且注记中的每一个字母对应一个连通域单元,但也有特殊情况:①水平的注记与道路相交,但与中心线走向不一致,如图 1中的注记“Touch”中的字母“u”,它虽是水平注记中的字母,但却与非水平的道路相交;②小写字母“i”和“j”包含两个部分,即一个字母对应两个连通域单元。考虑到这两种特殊情况,本文提出的连通域单元取舍步骤如图 4所示。

    Figure 4.  Connected Component Unit Choice Process

    步骤1 判断连通域单元i内是否为单个像素。若为单个像素,将连通域单元i内的连通域暂判定为第4类型,并对其进行半径搜索(步骤6);若为多个像素,将连通域单元i内的连通域暂判定为第1、2、3类型,转步骤2;

    步骤2 判断连通域单元i是否与中心线相交。若不相交,将连通域单元i内的连通域暂判定为第1类型,转步骤3;若相交,对其邻域特征值进行判断,当邻域特征值Ni=1或Ni=2时,保留连通域单元i内的像素,此时连通域单元i的方向特征值Ri= 0°,将连通域单元i内的连通域判定为第1类型,并将连通域单元i左右邻域内的所有连通域归类为第1类型;当邻域特征值Ni≠1且Ni≠2时,保留连通域单元i内的像素,此时Ri∈(-90°, 90°],将连通域单元i内的连通域判定为第2或3类型。

    步骤3 判断连通域单元i的尺寸特征值Si是否满足阈值。若不满足,则删除连通域单元i内的像素,否则转步骤4;

    步骤4 判断连通域单元i的密度特征值Di是否满足阈值。若不满足,则删除连通域单元i内的像素,否则转步骤5;

    步骤5 判断连通域单元i的邻域特征值Ni。当邻域特征值Ni=1或Ni=2时,保留连通域单元i内的像素,此时连通域单元i的方向特征值Ri= 0°,将连通域单元i内的连通域判定为第1类型;当邻域特征值Ni≠1且Ni≠2时,删除连通域单元i内的像素。

    步骤6 当所有包含多个像素的连通域单元取舍完毕之后,对于剩下的包含单个像素的连通域单元i,判断其半径r范围内是否存在包含多个像素的连通域单元(如图 8),若存在,则保留连通域单元i内的像素; 否则,删除连通域单元i内的像素。

    Figure 8.  Combination of Connected Component

    图 1进行灰度化得到的结果如图 5中黑色像素所示,对图 1提取的初步的注记像素集合进行取舍后的结果如图 5所示,红色标记出来的部分为噪声。

    Figure 5.  Annotation and Noise

  • 对于倾斜注记和弯曲注记需要进行方向校正,常用的校正方式有Hough变换,但是Hough变换只能进行倾斜的校正,对于弯曲的注记无法处理,并且算法运算量较大。为了对倾斜和弯曲的注记进行校正,本文提取注记所指代的地理要素(以道路为例)中心线,通过其方向特征对注记进行方向确定。

    目前,已有许多学者尝试从彩色栅格地图中提取道路要素,主要有三种方式[14]:基于地图拓扑结构的道路提取和识别;基于地图颜色特征的道路提取和识别;结合地图拓扑结构和颜色特征的道路提取与识别。本文根据参考文献[14]中的方法,对栅格地图上的道路要素进行提取,并作矢量化处理。

    通过将注记与道路中心线进行叠加确定每个连通域的方向(图 6),根据连通域类型的不同,连通域定向的方法如下。

    Figure 6.  Put Annotation on Road

    第1类连通域:与道路不相交且包含多个像素的连通域。这种类型的连通域方向角度为0°,对应的连通域单元i的方向特征值Ri= 0°。

    第2、3类连通域:与道路相交且包含多个像素的连通域。这两种类型的连通域方向角度变化范围为(-90°, 90°],其对应的连通域单元i的方向特征值范围为Ri∈(-90°, 90°]。Ri的计算方法如图 7所示,道路中心线L矢量化后由多条直线段l1l2…、ln组成,中心线L与连通域单元i的边界(图 7中黑色方框)上的两个交点分别为AB,点A所在的直线段为la,点B所在的直线段为lb,该连通域单元的方向特征值Ri等于直线段lalb的倾斜角度平均值:

    Figure 7.  Correct a Single Character

    其中kakb分别为直线段lalb的斜率,且两者都存在。当kakb不存在时,取直线段lalb的倾斜角度为90°。

    第4类连通域:包含单个像素的连通域。第4类型的连通域为字母“i”或“j”的上半部分,因此需要找到与上半部分对应的下半部分,合并两者以组成完整的字母。假设第4类连通域单元i的半径r范围内存在连通域单元j的像素,当连通域单元j中的连通域为第1类型(如图 8(a)),从连通域单元i的中心点向正下方搜索距离最近的像素p,像素p所在连通域单元为m,合并连通域单元im,此时连通域单元i的方向特征值Ri= Rm=0°;当连通域单元j中的连通域为第2、3类型(如图 8(b)),从连通域单元i的中心点o向距离o点最近的折线段l作垂线,垂足为d,找到距离d最近的像素q,像素q所在连通域单元为n,合并连通域单元in,此时连通域单元i的方向特征值Ri= Rn

    注记定向之后,所有第4类型的连通域被合并到第1、2、3类型的连通域中。

  • 经过注记提取和注记定向之后,一个字母对应一个连通域单元,且每个连通域单元都确定了方向。注记聚类是将一个单词的所有字母聚成一类。聚类需要明确对象之间的距离,从而将指定距离内的所有对象进行归类。注记的各个字母之间的距离利用连通域单元之间的距离进行计算,其基本定义如下。

    对于第1、2类连通域对应的连通域单元,连通域单元ij之间的距离M定义为:假设连通域单元i左右边界中心点到连通域单元j的左右边界最短的距离为Mi,连通域单元j左右边界中心点到连通域单元i的左右边界最短距离为Mj,则M=min(Mi, Mj)。如图 9(a)所示,字母“O”的连通域单元左边界中心点到字母“P”的左右边界最小距离为8(左边界),最大值为13(右边界),右边界中心点到字母“P”的左右边界最小距离为1(左边界),最大值为6(右边界),因此Mo=1。同理字母“P”的连通域单元左右边界中心点到字母“O”的左右边界最小距离Mp = 1,所以字母“O”和“P”的连通域单元之间的距离M=min(Mo, Mp)=1。

    Figure 9.  Distance Between Two Connected Component Units

    对于第3类连通域对应的连通域单元,连通域单元ij之间的距离M定义为:如图 9(b)所示,对于与中心线相交的连通域单元ij(黑色虚线),利用连通域单元的方向求出新的最小矩形IJ(红色实线),新的最小矩形有两对边与连通域单元方向垂直,两对边与连通域单元方向平行,为了方便描述,将与连通域单元方向垂直的边称作垂边。假设矩形I的两垂边中心点到矩形J的两垂边最短的距离为Mi,矩形J的两垂边中心点到矩形I的两垂边最短距离为Mj,则M=min(Mi, Mj)。图 9(b)中,字母“O”和“p”倾斜角度为45°,同理易知连通域单元ij之间的距离$ M = \sqrt 2 /2 $。

  • 非水平注记无法直接进行识别,为了保持较好的识别率,识别之前需对其进行放大、旋转、移位操作,使之成为可以识别的水平注记。

    放大和旋转过程中均使用双线性插值法对非整数的像素坐标进行插值。如图 10所示,对于非水平字母“s”(左),依次放大4倍(中)、逆时针旋转45°(右)后成为水平状态。

    Figure 10.  Magnification and Rotation of a Character

    移位操作是对所有字母进行重新排列。排列方法为:以第一个字母为基准,依次将后面的字母与第一个字母进行下边界对齐,并固定各个字母之间的间隔(如表 1)。经过以上所有步骤,栅格地图上的注记信息最后需要转化成机器可识别的文本形式,在实验当中,本文使用ABBYY FineReader对预处理后的图片进行注记识别。

    实际数量 识别数量 错误数量 正确率/%
    字母 1 247 1 178 69 94.5
    水平字母 636 604 32 95.0
    非水平字母 611 574 37 93.9
    单词 235 216 19 91.9
    水平单词 109 104 5 95.4
    非水平单词 126 112 14 88.9

    Table 1.  Result of Annotation Recognition

  • 为了证明方法的合理性和有效性,本文选择GoogleMap瓦片作为实验数据,数据范围为GoogleMap第17级别的编号从x=35 276、y=48 576至x=35 280、y=48 580的25张瓦片,瓦片中的字符类型包括字母、数字、以及少量其他字符(比如括号),该实验区域中倾斜注记和弯曲注记较多,约占注记总数量的50%。利用本文提出的识别策略对瓦片上的注记进行提取和识别,识别过程如图 11~图 14所示。

    Figure 11.  Original Tiles from GoogleMap

    Figure 12.  Annotation Noise and

    Figure 13.  Determine Direction of Annotation

    Figure 14.  Cluster Annotation

    图 11显示了25张GoogleMap瓦片组成的实验区域;图 12利用连通域单元的特征进行注记像素的提取,其中红色标记的区域为噪声;图 13利用矢量化后的道路中心线与注记叠加进行注记定向;图 14利用连通域单元之间的最小距离对字母进行聚类,每一个矩形框内的所有字母组成一个类别(单词)。

    图 15展示了非水平注记校正前后的对比效果。注记识别的结果如表 2所示。从表 1可以发现,GoogleMap瓦片上的字母、单词识别正确率分别为94.5%、91.9%,其中非水平字母识别正确率达到93.9%,非水平单词识别正确率达到88.9%。总体上,本文方法对彩色栅格地图中水平注记和非水平注记的识别有很好的效果。

    Figure 15.  Correction Result of Non-horizontal Annotation

  • 本文提出了一种彩色栅格地图上的注记识别方法,该方法的主要特点是在识别过程中充分利用了每个注记所对应的地理要素的几何特征,因此可以很好地识别倾斜和弯曲的注记。但是本文方法不适合识别大小变化较大的注记,如何解决大小变化给注记识别带来的挑战,是今后需要研究的方向。

Reference (14)

Catalog

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return