留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

眼动控制的交互式地图设计

朱琳 王圣凯 袁伟舜 董卫华 刘纪平

朱琳, 王圣凯, 袁伟舜, 董卫华, 刘纪平. 眼动控制的交互式地图设计[J]. 武汉大学学报 ● 信息科学版, 2020, 45(5): 736-743. doi: 10.13203/j.whugis20190165
引用本文: 朱琳, 王圣凯, 袁伟舜, 董卫华, 刘纪平. 眼动控制的交互式地图设计[J]. 武汉大学学报 ● 信息科学版, 2020, 45(5): 736-743. doi: 10.13203/j.whugis20190165
ZHU Lin, WANG Shengkai, YUAN Weishun, DONG Weihua, LIU Jiping. An Interactive Map Based on Gaze Control[J]. Geomatics and Information Science of Wuhan University, 2020, 45(5): 736-743. doi: 10.13203/j.whugis20190165
Citation: ZHU Lin, WANG Shengkai, YUAN Weishun, DONG Weihua, LIU Jiping. An Interactive Map Based on Gaze Control[J]. Geomatics and Information Science of Wuhan University, 2020, 45(5): 736-743. doi: 10.13203/j.whugis20190165

眼动控制的交互式地图设计

doi: 10.13203/j.whugis20190165
基金项目: 

国家自然科学基金 41871366

详细信息

An Interactive Map Based on Gaze Control

Funds: 

The National Natural Science Foundation of China 41871366

More Information
图(7)
计量
  • 文章访问数:  1153
  • HTML全文浏览量:  279
  • PDF下载量:  73
  • 被引次数: 0
出版历程
  • 收稿日期:  2019-06-24
  • 刊出日期:  2020-05-05

眼动控制的交互式地图设计

doi: 10.13203/j.whugis20190165
    基金项目:

    国家自然科学基金 41871366

    作者简介:

    朱琳, 硕士生, 主要从事地理空间认知理论与可视化方法的研究。zhulin1996@mail.bnu.edu.cn

    通讯作者: 董卫华, 博士, 教授。dongweihua@bnu.edu.cn
  • 中图分类号: P208

摘要: 传统的地图交互方式主要包括鼠标键盘控制和触摸设备控制,对根据人类视觉通道、利用眼动控制进行地图交互的研究还很少。眼动数据可以透露出人的心理状态和兴趣,因此将其作为地图交互的输入信息可以增加应用的可靠性和便利性。首先利用Tobii EyeX眼动仪获取眼动数据,将该数据作为地图交互的输入信息,提出了注视点过滤算法和注视多边形定位算法;然后设计了眼控控件及其交互响应方式,解决了地图眼控交互中存在的注视点冗余、交互反馈延迟问题,并开发了一套眼动控制的交互式地图原型系统;最后通过比较用户分别使用眼动控制和鼠标控制完成相同地图浏览任务的耗时及表现,对地图眼控交互算法和原型系统进行了评价。

English Abstract

朱琳, 王圣凯, 袁伟舜, 董卫华, 刘纪平. 眼动控制的交互式地图设计[J]. 武汉大学学报 ● 信息科学版, 2020, 45(5): 736-743. doi: 10.13203/j.whugis20190165
引用本文: 朱琳, 王圣凯, 袁伟舜, 董卫华, 刘纪平. 眼动控制的交互式地图设计[J]. 武汉大学学报 ● 信息科学版, 2020, 45(5): 736-743. doi: 10.13203/j.whugis20190165
ZHU Lin, WANG Shengkai, YUAN Weishun, DONG Weihua, LIU Jiping. An Interactive Map Based on Gaze Control[J]. Geomatics and Information Science of Wuhan University, 2020, 45(5): 736-743. doi: 10.13203/j.whugis20190165
Citation: ZHU Lin, WANG Shengkai, YUAN Weishun, DONG Weihua, LIU Jiping. An Interactive Map Based on Gaze Control[J]. Geomatics and Information Science of Wuhan University, 2020, 45(5): 736-743. doi: 10.13203/j.whugis20190165
  • 20世纪80年代以来,计算机技术、地球科学和制图学的结合促使传统静态平面地图开始向动态、可交互的地图发展[1]。如今,人们的工作生活已经离不开交互式地图,地图交互方式也不再局限于单一的鼠标键盘操作。随着多通道交互的发展,逐渐出现了基于触控笔、触摸屏、手势动作以及语音的地图交互方式[2-5]。但仍有很多场景人们不便用手操作地图,例如开车或骑行,操作远距离或超大屏幕上的地图,以及双手受限的残疾人使用地图等。近年来眼动跟踪技术日趋成熟,眼动仪的成本逐渐降低,这使得视觉成为地图交互的又一个重要通道,让交互式地图面向更多场景和更多用户群成为可能。

    利用眼动控制进行地图交互相较于其他交互方式有其独特的优势:(1)借助眼动仪进行眼动输入速度更快,因为通常用户在操作点击设备前就已经在看他想要将设备移动到的地方[6];(2)眼动仪可以实时获取用户正在关注的位置,只要关注的位置改变就向计算机发出指令[7]。此外,用眼睛看目标是人与生俱来的能力,用户不需要专门培训就可直接操作,而且眼动数据中透露出的用户心理状态和关注兴趣等隐含信息会增加交互的可靠性及便利性,更容易实现非精确的、隐含的交互。虽然眼控地图交互有着明显的优势,但同时也存在一些问题。例如人们无法时刻准确控制自己眼睛的位置,甚至在持续注视某个物体时眼球也在不断轻微运动,这种眼动很容易向计算机传达违背用户意图的指令;眼球不像鼠标可以随时操作和停止,它总是在运动,需要自然的方式指示眼动仪何时与输入装置接合;眼动跟踪设备的稳定性和精确度不如手动输入设备。因此,在实现眼控地图交互时需要充分考虑眼动输入的特点,发挥其快速灵敏、操作简便的优势,且要最大限度解决眼动数据不精确带来的交互问题。

    目前,眼动跟踪技术在地图学领域主要用于研究地图各要素对读图者认知的影响[8-12]、评价地图可用性[13-16]以及研究地理空间认知过程[17-18],很少用于实时的交互式地图浏览。在人机交互领域,文献[19]使用眼动跟踪来选择聚焦窗口,探索如何在有限的显示空间内更有效地使用眼动跟踪;文献[20]设计了一个键盘,用户可以通过注视来控制输入文本;文献[21]推出了一种视觉显示屏,允许用户根据自己的意愿用眼睛生成数字、字母、单词或图画; 文献[22]设计了一种动态眼动跟踪系统,将安装在轨道系统上的眼动仪与一种计算方法相结合,从而根据用户的横向运动自动检测并调整跟踪器。这些眼动控制的人机交互研究为实现眼控地图交互提供了思路。在交互式地图的研究上,苏黎世联邦理工学院的制图和地理信息研究所设计了一款呈现在数字显示屏上的注视控制的交互式校园地图,用户可以在不接触屏幕的情况下,仅通过注视屏幕就实现菜单选项以及室内或室外路线对象的选择[23], 但这款交互式地图侧重于眼控地图的导航功能,没有实现传统的地图浏览功能,如平移、缩放等。

    本文首先介绍了眼动数据的获取方法,针对交互反馈延迟问题,设计了注视点过滤算法和注视多边形定位算法来减少确定用户注视多边形的耗时;然后建立了注视感应区来创建符合一般用户交互习惯的眼控控件,并且开发出一套眼动控制的、能够实时反馈的交互式地图原型系统;最后,通过比较用户分别用眼动控制和鼠标控制完成相同地图浏览任务的耗时,验证了本文提出的地图眼控交互算法的效率和原型系统的可用性。

    • 本文使用Tobii EyeX眼动仪来检测和跟踪用户眼睛的运动,同时获取用户的眼动数据。远距离非侵入式眼动跟踪最常用的技术是瞳孔中心角膜反射(pupil center corneal reflection, PCCR),其基本原理是首先使用光源照亮眼睛并引起高度可见的反射,然后用相机捕捉显示反射的眼睛图像,再根据这些图像识别光源在角膜和瞳孔中的反射,从而计算出角膜瞳孔反射的夹角形成的向量,进而计算出注视方向。Tobii眼动仪使用的是传统PCCR远距离眼睛跟踪的改进版本[24],该方法的原理是首先用近红外光照射在用户眼睛上形成反射,然后用图像传感器捕获眼睛的图像和反射模式,最后使用图像处理算法和眼睛的生理3D模型估计出眼睛注视的位置。

      人的眼球运动主要有注视、眼跳和平滑尾随跟踪3种形式[25-27]。其中,注视可以揭示注意、心理加工、理解等隐含信息,是探究认知过程或状态时最常用的特征,故将其作为交互时输入的眼动数据。人眼在注视状态下为了看清物体不停地轻微抖动,但眼球相对趋于静止,视线在被观察目标上会短暂停留[28]。眼动仪不能直接识别并提取注视过程,而是先以固定工作频率获取一系列采样点,再用数学算法将原始采样点序列转换为相关的注视序列,尽可能真实地重建注视过程。本文在眼动仪工作时使用开发工具Tobii Core SDK提供的应用程序编程接口(application programming interface,API)实时提取人眼的注视数据,注视过程中的眼动数据点称作注视点。

      为了准确计算出用户在交互界面上的注视点,每次获取眼动数据前都需要进行校准。Tobii眼动仪的安装需要Tobii眼动追踪核心软件的支持,该软件中包含了校准的程序。在校准期间,用户需要注视屏幕上的特定点,再由眼动仪测算出眼睛的几何特征,用于精确计算该用户视线在屏幕上的落点。校准结束后要检查校准的质量,理想结果是眼动仪计算的注视点就是用户实际注视的位置。如果校准不理想,即不能直接获取注视点作为交互输入信息,则需要对用户位置、室内光线等进行调整后再次校准,直到满意为止。虽然眼动仪计算的注视点与用户实际注视点总是存在偏差,但合理的校准可以在很大程度上减少偏差,这样获取的注视数据对于眼控交互才更有效。

    • 本文使用的眼动仪工作频率为60 Hz,每16.7 ms就会产生一个采样点,注视由一段时间内连续的采样点构成,因此注视数据的获取是连续且高频的。如何利用高频流式眼动数据实时地控制地图交互,避免产生明显的交互反馈延迟,是进行眼控地图交互的首要问题。解决该问题可以从两方面进行:(1)降低注视点的更新频率;(2)提高交互界面的反馈速度。

    • 注视状态下的眼球不停地轻微运动,使一些注视点在屏幕上非常接近,这会导致注视点的冗余。因此,可以通过过滤冗余注视点来降低注视点频率。注视状态下,注视点通常聚集在屏幕上的一个小范围内,过滤注视点就是将每次注视都用尽可能少的点来表示,这些点被称作有效注视点。研究表明,人的最小注视持续时长为100~200 ms[29],但眼动仪计算出的注视状态的持续时长不局限于该范围。本文将200 ms设定为过滤注视点的阈值,如果一次注视小于200 ms,就将其注视点全部过滤掉;如果大于200 ms,则从每200 ms的注视点中提取一个有效注视点。综合考虑有效性和合理性,本文将200 ms注视中所有注视点的坐标的平均值作为有效注视点的坐标,将注视中最后一个注视点的时间戳作为有效注视点的时间戳。

      将时间作为注视点过滤的依据虽然很直观,但是不便于实现。因为眼动仪只能获取注视点的时间戳,无法获取两点间的时间间隔,而且受到设备运行环境的影响,注视点的时间间隔并不是一个固定值。因此,为了让注视点过滤方法更简便,本文用注视点个数的阈值代表注视时长的阈值。根据眼动仪的采样频率可直接算出200 ms内注视点的个数:

      $$N=\frac{t\cdot{}f}{1\ 000}$$ (1)

      式中,N为注视点个数阈值;t为注视时长阈值;f为眼动仪工作频率。

      本文使用的Tobii EyeX眼动仪工作频率为60 Hz,注视持续时长设为200 ms,根据式(1)得到注视点个数阈值为12。有效注视点的坐标的计算公式为:

      $$\overline{X}=\frac{X_1+X_2+\cdots{}+X_N}{N}$$ (2)
      $$\overline{Y}=\frac{Y_1+Y_2+\cdots{}+Y_N}{N}$$ (3)

      式中,$\overline{X}、\overline{Y}$分别表示有效注视点的横坐标和纵坐标;$X_{1}, X_{2} \cdots X_{N}$表示各注视点的横坐标;$Y_{1}, Y_{2} \cdots Y_{N}$表示各注视点的纵坐标。

      图 1是过滤注视点的示意图。每个浅灰色方块代表一个注视点,每个深灰色方块代表一个有效注视点。注视开始后,每12个注视点可求出1个有效注视点,其横坐标、纵坐标分别是这12个注视点的横、纵坐标的平均值,时间戳是第12个注视点的时间戳。在实现注视多边形定位时,需要利用有效注视点计算注视多边形。每当注视开始,就开始给注视点计数,如果没有达到阈值12注视就已经结束,就过滤掉全部的注视点,不计算有效注视点;如果达到阈值12时注视仍在继续,就用前12个注视点计算有效注视点以及注视多边形,然后将注视点过滤再重新开始计数,重复上述过程。用户在定位注视多边形时,默认将注视点个数阈值定为12,但用户可以增减该阈值来使交互体验更符合自己的习惯。

      图  1  过滤注视点

      Figure 1.  Filtering Gaze Points

      图  2  眼动注视多边形定位算法示意图

      Figure 2.  Schematic Diagram of Gazed Polygon

    • 在计算用户正在注视某个面要素时,可以提前为交互地图建立空间索引,利用注视多边形定位算法快速确定注视点落在哪个多边形内,显示注视多边形的属性并将其在地图上高亮显示。空间索引是对存储在介质上的数据位置信息的描述,用来提高系统获取数据的效率,空间索引的性能直接影响空间数据库和地理信息系统的整体性能。定位注视多边形时,每次获得新的注视点都需要计算该注视点落在哪个多边形上。因为减少该计算的耗时可以提高交互反馈的实时性,所以在选定地图前,需要先为其建立空间索引。常见的空间索引类型有格网索引、四叉树索引、R树和R+树等,本文建立的是结构较为简单的格网空间索引。

      建立格网空间索引后,需设计注视多边形定位算法来快速确定注视点落在交互图层的哪个多边形上,算法的基本原理如图 2所示。图 2中的整个区域表示进行交互的面图层,ABC分别代表该面图层上不同的多边形要素;圆点P代表用户某一时刻的注视点,坐标设为(X, Y);三角形点$P_{0}$是该图层的左下角点,由于地图坐标值在从左向右、从下到上的方向上逐渐增大,所以设$P_{0}$坐标为($X_{\min}$, $Y_{\min}$)。定位注视多边形首先需要确定注视点对应的空间索引,也就是确定P落在哪个网格上。网格的序号用i表示,因为所有网格i从左下角到右上角沿着横向和纵向逐个递增,所以图 2中的c表示注视点所在网格的列号,r表示注视点所在网格的行号, 计算公式如下:

      $$c=\int(\frac{X-X_{\min}}{w})+1$$ (4)
      $$r=\int(\frac{Y-Y_{\min}}{h})+1$$ (5)

      式中,int()为取整函数;w为网格宽度; h为网格高度。由注视点的坐标可以确定其所在网格i,再通过空间索引中网格的属性值确定注视多边形。i的计算公式如下:

      $$i=\left(r-1\right)\times{}n+c-1$$ (6)

      式中,n为网格的列数。

      注视多边形定位算法中的注视点坐标不是直接从眼动仪中获取的,而是经过坐标转换后的结果。如图 3所示,灰色的背景代表计算机屏幕,地图所在区域即为地图控件,实心黑点代表注视点。假设一个注视点的屏幕坐标是(960, 540)像素,屏幕左上角是坐标原点。注视点的地图控件坐标为(749, 456)像素, 地图控件左上角是坐标原点。但注视点在该地图上的投影坐标由选定地图材料的地理坐标系和投影坐标系共同决定。由于确定注视点落在地图上哪个多边形要素内需要知道该点的地图投影坐标,因此,§2.1获取的单个注视点数据需要先从屏幕坐标转换成地图控件坐标,再从地图控件坐标转换成所交互地图的投影坐标,才能进一步用于定位注视多边形。

      图  3  坐标转换示意图

      Figure 3.  Diagram of Coordinate Transformation

    • 眼控地图浏览包括眼动控制下的地图漫游、缩放以及原图显示等操作,但仅通过眼动数据很难获知用户浏览地图时具体的操作意图。由于人用鼠标控制进行地图交互时, 先看到按钮然后再移动鼠标点击按钮,所以人眼对按钮的注视能透露出用户的操作意图。虽然鼠标控制下的地图漫游不是通过点击按钮而是拖拽鼠标实现的,但当用户关注靠近某个方向地图边缘附近的区域时,很可能意味着目前显示区域无法满足其需求,需要进行该方向的平移。因此可以建立眼控控件,用眼睛对指定区域的注视代替鼠标的点击作为输入指令。

      人眼的注视远不如鼠标指针那么精准,利用注视向交互界面发出指令需要先对注视点进行处理,否则直接用单个注视点触发注视事件很可能不符合用户意图。开发工具Tobii Core SDK提供的交互器可将复杂的原始数据处理过程抽象化,它是应用程序窗口中的有界区域,开发者可以为其定义基于注视的行为。为了在一个地图交互界面上能有多个交互器响应注视行为,需要用SDK提供的虚拟窗口来放置交互器。本文在放大、缩小、全图显示控件以及地图 4个边缘上方建立相应的虚拟窗口,并将交互器与其绑定,定义相应的基于注视的行为,构成多个具有特定功能的注视感应区。

      图  4  放大控件

      Figure 4.  Zoom in Control

      图 4(a)是眼控放大控件的示意图,白色区域是放大控件本身,阴影区域是具有放大功能的注视感应区,只有注视感应区感应到用户的注视,才可以对地图执行放大操作。交互器对于注视的感应非常灵敏,很可能用户以为只注视了一次感应区,但实际上由于眼睛不断的轻微移动可能会触发多次注视行为,这不符合用户的心理预期。因此,在无法调整交互器灵敏度的情况下,只能改变注视感应区的设计。如图 4(b)所示,不改变控件大小但缩小注视感应区的虚拟窗口范围,这样可以有效降低触发多次注视感应的可能性。此外,还需要限制触发注视事件的频繁程度。当用户不熟悉眼控漫游时,可能会频繁用注视触发各个感应区,但全图刷新耗时较长,当用户触发注视感应区的速度比全图刷新还快时,就会给用户造成地图反馈不够实时的感受。因此,需要设定触发注视感应区的时间间隔,保证在地图刷新过程中不会触发新的感应区。本文将该时间间隔设置为200 ms,即一次触发眼控控件后需要在200 ms后才能再次触发该控件。该值的设置参考了注视持续的最短时间,但在使用不同复杂程度的地图以及不同性能的计算机时,可以根据实际情况进行调节。最终实现的效果是,每次用户将视线从非注视感应区移动到注视感应区内或者在看注视感应区时眨眼,都可以触发该控件引起界面的反馈。

    • 眼动控制的交互式地图原型系统基于WinForm集成框架,采用C#编程语言开发,地图文档处理使用ArcMap 10.3软件,数据库管理使用Microsoft SQL Server 2012软件。外部设备选用采样频率为60 Hz的TobiiEyeX眼动仪,眼动仪核心软件版本为Tobii Eye Tracking Core Software 2.13.3。

      原型系统主要包括地图眼控交互、用户管理两大功能模块,如图 5所示。地图眼控交互模块包括定位注视多边形,眼控漫游、放大、缩小以及原图显示这5种主要的地图浏览功能。用户管理功能是针对每个使用者所设置的参数的管理,包括用户信息的增加、删除、修改和查找。此外,还附加了鼠标控制的地图交互模块, 可用于对比评价地图眼控交互的效果。

      图  5  功能模块图

      Figure 5.  Diagram of Functional Modules

      系统主界面如图 6所示。菜单栏可以打开或关闭地图文档,选择开启眼控模式或鼠标控制模式下的功能,管理用户信息等;工具栏中包括开启交互功能的快捷方式;状态栏显示注视点的坐标。注视点气泡是眼动仪核心软件在屏幕上实时绘制的用户注视区域。在开启定位注视多边形功能后,地图显示区实时对眼控输入进行反馈,高亮显示用户正在注视的多边形,而属性显示区则显示注视多边形的属性表。眼控漫游、放大、缩小、原图显示控件都是在开启相应眼控交互功能后才可以使用。

      图  6  本文系统的主界面

      Figure 6.  Main Interface of Our Proposed System

    • 由于ArcGIS的Identify方法也可以得到给定地图坐标所在的多边形要素,从而确定注视点对应的注视多边形,所以本文对Identify方法和注视多边形定位算法的效率进行比较。由于Identify方法内部详细代码无法获取,无法通过计算时间复杂度来比较它和注视多边形定位算法的效率,故统计两种算法对相同地图文档计算注视多边形的耗时进行比较。

      选用某中国地图的中国行政区(包含沿海岛屿)作为交互面图层,该图层共有924个面要素,建立空间索引时划分了100$\times{}$100的网格。选择面要素多的图层进行交互是为了使算法效率对比更加明显。对这两个方法利用注视点得到注视多边形要素的耗时分别进行统计, 统计结果发现,Identify方法平均耗时700 ms左右,所得注视多边形不同耗时也不同,差距最大可达400 ms,且屏幕反馈严重延迟、实时性差。但利用格网空间索引进行面要素定位的注视多边形定位算法平均耗时19 ms,且每次运算耗时相差很小。由此可以认为,本文提出的注视多边形定位算法比ArcGIS的Identify方法更适用于注视多边形的定位,前者更加高效,有助于提升地图眼控交互的实时性。

    • 为了对注视多边形定位算法的效率和眼控控件的可用性进行评价,本文首先设计了两种地图浏览任务,然后要求用户分别在眼动控制、鼠标控制下完成任务并记录任务完成时间,最后统计对比了不同用户的任务完成时间。任务的具体内容为:(1)查看属性,用户依次查看西藏、黑龙江、河南、云南、湖南5个行政区的属性信息;(2)放大地图,用户放大地图,直到地图比例尺缩小到1:25 000 000时显示每个行政区的名称。

      用户用眼控方式查看属性时,需要用眼睛注视目标多边形,在该多边形高亮并显示属性信息时,再去查看具体属性;用鼠标控制的方式查看属性,则是直接用鼠标点击目标多边形,使其高亮并显示属性信息。需要注意的是,用户必须正确查看完一个指定面要素之后,再查看下一个。用户用眼控方式放大地图时,需要用眼睛注视眼控放大控件,每注视一次就会进行一次放大,每次放大后需检查行政区是否显示名称;用鼠标控制的方式放大地图则是直接用鼠标点击地图进行放大。

      共有30名用户参与对比实验,其中14名男性,16名女性。在此期间,统计了所有用户完成任务所需的时间。图 7显示了所有用户分别用眼动控制、鼠标控制完成上述两个任务的耗时情况。图 7(a)是用户完成查看属性任务所耗时间的对比,眼控查看属性平均耗时22.564 s,鼠标控制查看属性平均耗时21.408 s。由于鼠标控制下完成该任务的耗时不服从正态分布,故采用Mann-Whitney U类型的非参数检验,判断两种交互方式耗时是否有显著差异。所得显著性结果为0.460(>0.05),说明两种交互方式查看属性的耗时无显著性差异。图 7(b)是用户完成放大地图任务所耗时间的对比,眼控放大平均耗时9.080 s,鼠标放大平均耗时8.987 s。由于两种交互方式耗时均服从正态分布,故采用独立样本T检验来判断两者间是否有显著差异。所得显著性结果为0.858(>0.05),说明两种交互方式放大地图的耗时无显著性差异。

      图  7  用户执行地图浏览任务时的耗时情况

      Figure 7.  Time Consuming when Users Perform Map

      根据实验结果可以看出,用户用眼动控制和鼠标控制完成交互任务的耗时没有显著差异。但通过观察用户完成任务时的具体表现,可以发现两种交互方式各有优点。眼控交互的优点是当用户查看某一个多边形的属性时,用注视定位到该多边形比用鼠标定位快。因为鼠标定位需要用户先找到该多边形,然后再将鼠标移动到眼睛注视的区域进行点击,但注视定位就可以直接在用户看到目标后,立即使其高亮并显示属性。鼠标交互的优点是交互更加精确,而且连续操作同一目标对象时,效率更高。因为眼控查看目标多边形属性会受到多种因素的影响,例如目标多边形越小,用户注视点越不稳定,定位注视多边形就越困难,耗时越长。连续点击鼠标比连续眨眼或连续移动视线更快、更自然,这可能是导致此次调查中眼动控制和鼠标控制进行属性查看的耗时没有显著差异,甚至眼控耗时均值略大于鼠标控制的原因。通过对比两种交互方式完成相同任务的耗时可以看出,本文提出的地图眼控交互算法效率能够满足让用户进行实时的地图眼控交互,但真正实现眼控交互优于鼠标交互还需要进一步提高眼控交互的精度和效率。此外,鉴于两种交互方式各有所长,或许眼动和鼠标的配合更能实现高效、用户友好的地图交互。

    • 由于眼动数据中反映出的用户兴趣和操作意图可以使地图交互更加高效便利,本文研究了眼动控制的交互式地图。首先以Tobii EyeX眼动仪作为输入设备,介绍了眼动数据实时获取的方法、注视点过滤算法和注视多边形定位算法,设计了眼控控件及其交互响应方式,解决了地图眼控交互中存在的注视点冗余、交互反馈延迟问题。然后采用上述算法设计开发了一套眼动控制的交互式地图原型系统。最后设计了地图浏览任务,并让用户分别在眼动控制和鼠标控制下完成,通过分析用户完成任务的耗时,说明本文提出的地图眼控交互算法能够满足用户进行实时的地图眼控交互。

参考文献 (29)

目录

    /

    返回文章
    返回