跳至内容

人机交互团队ACM UbiComp 2020口头报告6篇长文

ACM UbiComp 2020 于2020年9月12日至9月17日举行,清华大学人机交互团队今年携6篇长文参会,均为口头报告论文。

UbiComp(Ubiquitous Computing)是普适计算领域旗舰国际学术会议,同时也是中国计算机学会和清华大学计算机系认定的A类会议。由于疫情的原因,今年的UbiComp改为线上举办,会议交流了最近四期IMWUT录取的共计140篇论文。UbiComp会议每年录取的论文分四期发表在IMWUT(ACM Interactive Mobile Wearable Ubiquitous Technologies)期刊上。人机交互团队的6篇长文,创团队年度UbiComp论文数的新高。

01

HeadCross:Exploring Head-Based Crossing Selection on Head-Mounted Displays

作者:阎裕康、时英天、喻纯、史元春

论文提出了HeadCross,这是一种基于头部运动的交互方法,可以在VR和AR头戴式显示器(HMD)上选择目标。使用HeadCross用户无需用手就可以完成交互,在用户的手被其他任务占用时刻提供额外的交互通道。论文通过用户研究,观察用户在执行HeadCross时头动行为与其他类型的头部运动之间的行为差异,提取对应特征参数,实现了HeadCross的识别算法。且通过用户研究对HeadCross进行评测,将HeadCross与基于驻留的选择方法,手柄方法和空中手势的方法进行了比较。在VR和AR界面上都测试了两个典型的目标选择任务(文本输入和菜单选择)。结果表明,与基于驻留的方法相比,HeadCross改善了控制感;与两种手动方法相比,HeadCross改善了交互效率并减少了疲劳。

02

Designing and Evaluating Hand-to-Hand Gestures with Dual Commodity Wrist-Worn Devices

作者:鲁逸沁、喻纯、史元春

论文探索了hand-to-hand手势,即一类通过双手接触碰撞的手势。这种手势非常容易完成,对双手都提供了触觉反馈;同时,做这种手势时双手会同时产生震动,能被双手手腕上所戴的一对智能手表/手环所检测到。与此对应,论文还探索了一对智能手表/手环的检测能力以及手势的设计空间,并提出了两组分别在静止和运动下较适用的手势。用户实验显示,双手手表/手环能够在静止状态下区分14种手势的正确率达到94.5%,走路和跑步状态下区分5种手势的正确率分别为98.4%和96.3%,显著地优于只使用一个手表/手环的效果。

03

Keep the Phone in Your Pocket: Enabling Smartphone Operation with an IMU Ring for Visually Impaired People

作者:刘冠宏、古裔正、殷翊文、喻纯、王运涛、米海鹏、史元春

先前的研究表明,视障用户在使用智能手机时会遇到一系列独特的痛点,包括:从口袋中掏出手机耗时而不便、当握持盲杖时难以使用单手操作手机、以及在公众场合下难以保持手机内信息的私密。论文提出了基于智能戒指的盲式手机操控方法,能够让视障人士无需触摸手机即可与手机交互。具体而言,将一枚含有惯性测量单元(IMU)的戒指佩戴在食指中段,用户可以在任意表面上操作微手势来控制手机,并通过耳机接收语音反馈。论文首先通过参与式设计获得了一些列适用于操控手机的命令与手势。之后训练了SVM模型,达到了平均为95.5%的15分类准确率。最后开展了该手机操控方法的可用性评估,包括用户的学习时间、实际使用时的分类准确率,并与手机交互做对比,评估了二者的交互效率和用户的主观体验。结果表明,基于智能戒指的盲式手机操控方法可以有效减少用户获取手机的时间,并且易于学习、容易使用、方便了单手交互、且提供了私密而有趣的交互体验。

04

Virtual Paving: Rendering a Smooth Path for People with Visual Impairment through Vibrotactile and Audio Feedback

作者:许书畅、杨辞源、葛文浩、喻纯、史元春

本文讨论了虚拟盲道支持视障用户在现实环境中独立出行的可行性和潜在限制。盲道是辅助视障人士出行的常见基础设施,它通过提供脚底触觉反馈,为视障人士指引可行路线。但是,盲道有着铺设不规范、被人为占用、易磨损、覆盖范围有限等问题。为了解决以上问题,论文提出了虚拟盲道技术。该技术旨在利用多模态反馈为视障人士渲染一条顺滑的道路,以辅助用户的独立出行。本论文在安全路径已知的假设下,着重研究反馈设计,以指导用户安全,顺畅和高效地沿着该路径行走。首先,论文调查了视障人士当前出行中的习惯与问题,并以此为依据,总结了虚拟盲道的设计指南。接下来,通过与视障用户开展协同设计和评估,确立了多一套多模态反馈方案。该反馈方案包括(1)肩膀和腰部的触觉反馈,以提供可被即时感知的可行方向信息;和(2)描述用户前方路况的语音反馈。最后,选取了包括直道与弯道的测试路径,评估了反馈方案指引用户在2.1m的宽度内跟随路径的能力。在该反馈方案的指导下,16名视障用户成功完成了127轮路径跟随实验(共计128轮)。用户的主观反馈显示,论文设计的虚拟盲道渲染方案易于学习,并且可以帮助他们流畅地跟随路线。

05

Recognizing Unintentional Touch on Interactive Tabletop

作者:徐栩海、喻纯、王运涛、史元春

多点触控交互桌面的设计是为了在熟悉的物理桌面表面上体现数字计算机的优点。然而,当前多点触控桌面的本质是能够检测到所有形式的触摸并作出反应,包括无意中的触碰,这阻碍了用户对其进行自然的操作。本文利用注视方向、头部方位和屏幕接触数据来识别和过滤无意中的触摸,以便用户能够充分利用交互式桌面的物理特性,例如在交互过程中双手休息或倚靠在桌面上。为了实现这一点,本文首先进行了一项用户研究,以探究在数字桌面和物理桌面上完成常规任务之间的行为模式差异(注视、头动和手指触点);再将研究结果汇编成五种时空特征,并训练机器学习模型来识别无意触摸,F1分数为91.3%,比最先进的模型高出4.3%。最后,在一个实时误触过滤系统中对本文的算法进行了评估。用户研究表明,改进后的桌面有效地屏蔽了无意中的触摸,提供了更加轻松自然的用户体验通过将他们的凝视和头部行为与他们的触摸行为联系起来,我们的工作揭示了未来桌面技术的可能性,以提高对用户输入意图的理解。

06

Facilitating Temporal Synchronous Target Selection through User

Behavior Modeling

作者:张腾翔、易鑫、王若琳、高佳圆、王运涛、喻纯、李思民、史元春

时间同步目标选择是一种无关联选择技术:用户通过手指敲击、拍手等方式改变信号,使其与待选目标独特的时间模式同步,基于同步性选择目标。然而,已有技术的闪烁模式集设计和输入识别算法没有充分利用用户的行为信息,限制了对用户不精确输入的鲁棒性。本文通过对用户交互行为建模,对这两个关键问题进行了改进。在第一个用户研究中,我们要求用户在不同周期和不同延迟的闪烁模式下同步敲击手指,并使用高斯分布来拟合他们的手指敲击能力。基于这些结果,我们为多达22个目标生成了模式集,最大限度地减少了由于输入不精确而造成混淆的可能性。在第二个用户研究中,我们验证了优化后的模式集可以将经典相关识别器的错误率从23%降低到7%。本文还测试了一种新的贝叶斯算法,当输入序列较短时,它比相关识别器具有更高的选择精度。非正式的评估结果表明,选择技术可以有效地扩展到不同的模式和感知技术。