欢迎光临散文网 会员登陆 & 注册

【论文分享】诺亦腾 Hi5 VR 交互手套在全身远程呈现技术中的应用

2023-06-20 15:03 作者:诺亦腾  | 我要投稿

诺亦腾学术前沿分享  第九期


研究领域 | 远程呈现(Telepresence)

论文作者 | 韩国科学技术学院

                 Leonard Yoon, Dongseok Yang

                 Choongho Chung, Sung-Hee Lee

阅读时间 | 约2分钟

全文字数 | 约1000字


01 研究背景

远程呈现(Telepresence)是一种混合现实技术,让用户以虚拟化身(Virtual Avatar)形象,与异地用户实时交流互动,仿佛真人面对面一般。然而,当双方用户房间布局不同时,虚拟化身会出现手势错位、指向错误等情况,极大削弱远程呈现的临场感和沉浸感,限制了该技术的使用场景。

针对虚拟化身手势动作指向错误等问题,来自韩国科学技术学院的 Leonard Yoon、Dongseok Yang 等四位学者给出解决方案。借助诺亦腾 Hi5 VR 手套,他们将手势动捕技术引入远程呈现系统,提出一种重新定向(Retargeting)算法,实现精准、自然的手势交互效果。



02 方法原理

左:用户在自己房间内的真实动作

右:用户虚拟化身最后呈现的动作

手势动作是远程呈现系统的重要交互方式。异地双方用户可通过指向某目标等肢体语言来辅助交流。研究者的算法会调整虚拟化身的动作,使其既符合远程呈现的房间布局,又准确传达用户的动作意图。

如上图,用户在自己房间内侧身指向三角形时,直接还原该动作会导致虚拟化身指向错误方向,无法传达用户意图,而算法则会按房间布局对动作重新定向,使虚拟化身正身指向三角形。


算法所识别的运动、独立、互动三类状态

用户状态被算法分为三类:在房间内走动时的运动状态(Locomotion)、凝视或指向某个物体时的互动状态(Interaction),以及不移动也不互动时的独立状态(Solo)。

借助诺亦腾 Hi5 VR 手套,算法可精准获取用户的手势动作及方向数据,为其顺利运行打下坚实基础。当用户的手指方向和用户的视线方向重叠时间超过临界值时,用户将被识别为互动状态,使虚拟化身的手指指向视线目标。当用户处于独立状态时,算法则会让化身直接还原用户的动作,使其具备精细到手指的肢体语言。

为验证远程呈现系统的改进效果,研究者设置客厅和办公室两类场景,每类场景有两个布局不同的房间。邀请12位大学生担任实验参与者,两人一组,分别身处两个房间,佩戴 VR 头显、诺亦腾 Hi5 VR 手套及其他设备,共同完成天文知识学习、观看影片、虚拟绘画三项任务。


通过远程呈现系统

参与者共同完成天文知识学习、观看影片、虚拟绘画任务




03 研究结果

在体验过程中,每个场景下的两位参与者,借助诺亦腾 Hi5 VR 手套,能通过手势交互,精准了解对方想要表达的内容,共同完成合作任务。体验结束后,12位参与者接受半结构式访谈,普遍对该系统的沉浸感和临场感给予积极评价。

经研究者引入手势动作捕捉技术,该系统目前已可以在远程沟通与远程协作方面发挥实际作用。研究者认为,在未来,远程呈现技术还将在远程教育、企业会议、社交聚会等场景产生更大影响。


*本文图表除特别注明外,均摘自论文原文。


文献来源

Yoon, L., Yang, D., Chung, C., & Lee, S. (2021). A Full Body Avatar-Based Telepresence System for Dissimilar Spaces. 

原文链接(复制浏览器访问):https://dl.acm.org/doi/10.1145/3415256.3421487

【论文分享】诺亦腾 Hi5 VR 交互手套在全身远程呈现技术中的应用的评论 (共 条)

分享到微博请遵守国家法律