SoErgo V3.0灵活创建任务仿真
上周介绍了SoErgo V3.0通过多种方式定义数字人体,今天我们来介绍任务仿真功能。除了支持静态仿真与分析之外,SoErgo V3.0还支持多种方式编辑动态任务仿真,包括关键帧动画、典型动作生成、动捕外设驱动以及可视化脚本。

关键帧动画与典型动作生成是SoErgo V3.0两种最基本的任务仿真编辑方式。可以在时间轴的关键帧上编辑数字人体每个关节的角度与位置,关键帧之间通过插值过渡,形成连续的任务动作。典型动作生成是设定特定动作的参数,通过计算机自动生成任务动作的功能,如行走、奔跑、拿起、放下等动作。以行走为例,设定数字人体的起始位置及姿态、结束位置及姿态、移动速度等参数,即可生成一段行走的动作。

SoErgo
V3.0支持目前市场上的主流虚拟现实外设,包括光学动捕(OptiTrack、ART…)、惯性动捕(Xsens、诺亦腾…)、数据手套(Hi5、CyberGloves…)、VR头盔(HTC
VIVE、Oculus、Varjo…)等,可通过动捕与数据手套实时驱动数字人体,并且以VR头盔查看数字人体第一人称视角。

常规任务仿真是根据任务流程的执行过程,通过关键帧动画或典型动作生成数字人体与设备的交互动作仿真,整个仿真按时间轴顺序执行,这种方式无法满足具有多分支的复杂任务流程的仿真需求。通过可视化脚本设定复杂任务触发规则,当满足事件触发条件时执行该事件,即可进行复杂任务流程仿真。以汽车HMI验证为例,通过可视化脚本编辑任务逻辑,通过交互事件触发实现HMI交互与车辆模型的交互等。如开关车门、开关灯、切换HMI界面、播放音乐等。
通过关键帧可以对任务动作进行精确的控制,但是需要花费较长的时间,适合有精细化要求的任务动作编辑;通过典型动作可以较快地生成任务动作,但仅适合软件中已经定义好的动作类型;通过动捕设备实时驱动数字人体进行任务仿真是一种较为理想的任务仿真方式,但需要相应的硬件设备支持,同时不同的硬件设备存在使用场景的局限,如光学动捕怕遮挡、惯性动捕容易漂移等;通过可视化脚本可以创建多种类型、多种交互方式的任务仿真,但需要一定的编程能力。用户可以根据实际的应用场景及软硬件环境,选择适合的任务仿真创建方式。
