在出生率下降,人口老龄化和缺乏护理人员的背景下,对护理机器人的期望越来越高。例如,对于疗养院和其他此类设施的护理,预计机器人将在巡逻设施时检查居民的状况。在评估一个人的状况时,虽然姿势的初始估计(站立,坐下,摔倒等)是有用的,但迄今为止的大多数方法都使用了图像。这些方法面临诸如隐私问题以及在昏暗空间内应用的困难等挑战。因此,研究小组(Kaichiro Nishi,2016年硕士课程毕业生和Miura教授)开发了一种仅使用深度数据进行姿势识别的方法。
对于诸如直立位置和坐姿的姿势,其中身体部位能够相对容易地被识别,可以获得能够高精度地估计姿势的方法和仪器。然而,在小心的情况下,必须识别各种姿势,例如躺卧位置(躺下的状态)和蹲伏位置,这直到现在都提出了挑战。随着最近深度学习的进展(使用多级神经网络的技术),使用图像估计复杂姿势的方法的发展正在发展。尽管深度学习需要准备大量的训练数据,但是在图像数据的情况下,人们相对容易看到图像中的每个部分并识别它,一些数据集也已经向公众开放。在深度数据的情况下,
因此,该研究已经建立了一种通过结合计算机图形(CG)技术和运动捕捉技术来生成大量训练数据的方法。该方法首先创建各种体形的CG数据。接下来,它添加每个部分的数据信息(包括头部,躯干部和右上臂部的11个部分)和包括每个关节位置的骨架信息。这使得可以简单地通过使用运动捕捉系统给出关节角度来使CG模型采取任意姿势。