基于人脸运动捕捉的表情动画仿真研究  

On the simulation of expressional animation based on facial MoCap

在线阅读下载全文

作  者:方小勇[1] 魏小鹏[2] 张强[2] 周昌军[2] 

机构地区:[1]湖南工学院计算机与信息科学学院,衡阳421002 [2]大连大学先进设计与智能计算省部共建教育部重点实验室,大连116622

出  处:《中国科学:信息科学》2013年第8期982-995,共14页Scientia Sinica(Informationis)

基  金:国家自然科学基金(批准号:60875046);教育部科技研究重点项目(批准号:2009029;211036);辽宁省高等学校优秀人才支持计划(批准号:LR201003);辽宁省高校重大科研计划(批准号:LS2010008);辽宁省高校科研项目计划(批准号:2009S008;2009S009);辽宁省高校创新团队支持计划(批准号:2009T005;LT2010005);辽宁"百千万人才工程"培养经费(批准号:2010921010);湖南省科技厅科技计划(批准号:2011FJ3108;2012FJ3034;2013FJ3095)资助项目

摘  要:基于运动捕捉的动画仿真技术是当前计算机动画的研究热点.基于光学式运动捕捉系统,文中提出了一种新颖的基于交叉映射的人脸表情动画重构方法.针对RBF构建静态全局映射时嘴唇上下部分光标出现的伪关联问题,文中构建了基于功能分区的RBF交叉映射方法.在模型驱动过程中,提出一种皮肤运动机理计算得出增强标记点运动,基于增强标记点实现了基于人脸分区驱动的RBF插值方法,改进了基于人脸分区模型驱动的仿真效果.此外,设计了预计算算法提升了交叉映射和动画仿真过程的实时效率.实验证明该方法能够将同一演员的运动捕捉数据应用于任意不同人脸模型,针对相应模型生成逼真的人脸表情动画.MoCap(motion capture)-based animation is a hot issue in computer animation research currently. Based on the optical MoCap system, this paper proposes a novel cross-mapping based facial expression simulating method. To overcome the problem of the false upper and lower jaw correlation derived from the facial global RBF-based cross-mapping method, we construct a functional partition based RBF cross-mapping method. During model animating, enhanced markers are added and animated by our proposed skin motion mechanism. In addition, based on the enhanced markers, an improved RBF-based animating approach is raised to derive realistic facial animation. Further-more, a pre-computing algorithm is presented to reduce computational cost for real-time simulation. The experiments proved that the method can not only map the MoCap data of one subject to different personalized faces but generate realistic facial animation.

关 键 词:表情动画 交叉映射 功能分区 辅助标记点 RBF 

分 类 号:TP391.41[自动化与计算机技术—计算机应用技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象