横滨大学的研究人员提出VirSen1.0:一个用于简化基于传感器的人体手势识别系统开发的虚拟环境

Yokohama University researchers propose VirSen1.0 a virtual environment for simplifying the development of sensor-based human gesture recognition systems.

手势识别技术在传感器配置和放置、数据解释以及机器学习准确性方面面临着重大挑战。高效地设置传感器以捕捉微妙的动作,可靠地解释所得到的数据,并确保机器学习算法准确识别出预期的手势,这些问题一直存在。这些问题不仅妨碍了最佳性能的发挥,还限制了手势系统在各种应用中的广泛采用。

日本横滨大学的研究团队推出了一种用于计算机化人体手势识别的新模型。该研究讨论了开发名为VirSen 1.0的用户界面(UI),该界面允许用户在虚拟空间中交互地排列虚拟光学传感器以设计手势估计系统。它使用户能够尝试不同的传感器放置方式,并评估其对手势识别的影响,而无需使用物理传感器。

该研究收集训练数据时,通过让一个虚拟角色执行所需的手势来收集数据。研究人员讨论了传感器管理模拟器的相关工作,并强调了他们的方法的独特性,即在单个软件工具中结合情境、数据获取和模型创建。由于收集大量训练数据不切实际,研究使用了支持向量机(SVM)分类器,其中包括径向基函数内核。该研究强调了排列特征重要性(PFI)贡献指标在识别高识别率传感器放置位置方面的重要性。PFI通过排列特征来衡量个别特征对模型预测的影响。PFI提供了关于特征的见解,有助于在试错过程中优化传感器放置。

本研究中的光学传感器由红外LED和光电晶体管组成。当传感器值超过与前一帧相比的特定阈值时,数据采集开始。人体手势使用Xsens进行记录,Xsens是一种捕捉惯性传感器的动作捕捉工具。它捕捉了六个三维手势,包括下蹲、跳跃、倾斜和举手。该实现包括模拟器界面的可视化表示,允许用户放置对象、收集数据、可视化传感器值,并通过PFI贡献指标评估准确性。

研究团队计划改进模拟器,包括额外的功能来检查过去的放置和结果,并根据PFI贡献指标建议传感器放置位置。未来,作者计划解决某些限制,包括不考虑服装对识别准确性的影响、缺乏传感器噪声和误差建模、处理速度以及对识别目标的限制。