机器人跟踪手势姿态图像运动准确性仿真  被引量:3

Robot Tracking Gesture Gesture Image Motion Accuracy Simulation

在线阅读下载全文

作  者:王命延[1] 胡茗[1] 杨文姬[2] 

机构地区:[1]南昌大学信息工程学院,江西南昌330031 [2]江西农业大学软件学院,江西南昌330045

出  处:《计算机仿真》2017年第8期346-350,共5页Computer Simulation

基  金:国家自然科学基金资助项目(61462038;61363046)

摘  要:对机器人跟踪手势姿态运动准确性的估计,能够有效提高人机交互效率。对手势姿态运动准确性的估计,需要通过非线性手势模型中间层,从而选取关节点处一个旋转自由度,完成对手势姿态运动准确性的估计。传统方法先对手势特征的提取,计算手部轮廓曲率,但忽略了关节点处旋转自由度的选取,导致手势姿态运动准确性估计精度偏低。提出将手势姿态运动准确性估计应用于手势识别中。通过应用卷积神经网络对深度图中人手进行姿态估计,得到关键关节点的空间坐标,计算出各手指弯曲程度进行猜拳手势识别,使得机器人跟踪手势姿态运动准确性图像可以同典型手势一样被识别。其中用于姿态估计的卷积网络模型,通过加入非线性手势模型中间层,选取关节点处一个旋转自由度,得到附加的旋转变换矩阵。完成对机器人跟踪手势姿态图像运动准确性估计。实验证明,上述网络模型使手势姿态估计中平均误差降低了2.21mm。A motion accurate estimation of gesture posture for robot tracking is proposed. Firstly, convolutional neural network is used to carry out posture estimation for human hand in depth map, and space coordinate of key artic- ulation point is obtained. Then, degree of crook of each finger is worked out to carry out gesture recognition of finger -guessing game. Thus,like typical gesture, the motion accuracy of robot tracking gesture posture image can be rec- ognized. A rotational degree of freedom at articulation point is selected via adding interlayer of nonlinearity gesture model, and additional rotation transformation matrix is obtained. Finally, the motion accurate estimation is completed. Experiment results show that the proposed method can reduce average error of gesture posture estimation by 2. 21mm.

关 键 词:机器人跟踪 手势姿态 运动准确性 

分 类 号:TP391[自动化与计算机技术—计算机应用技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象