检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]中国科学院计算技术研究所前瞻研究实验室,北京100190 [2]中国科学院大学,北京100049
出 处:《计算机辅助设计与图形学学报》2013年第6期890-899,共10页Journal of Computer-Aided Design & Computer Graphics
基 金:国家自然科学基金(60970086);国家自然科学基金重点项目(U0935003)
摘 要:针对语音驱动人脸动画中如何生成随语音运动自然呈现的眨眼、抬眉等表情细节以增强虚拟环境的沉浸感的问题,提出一种可以合成表情细节的语音驱动人脸动画方法.该方法分为训练与合成2个阶段.在训练阶段,首先对富有表情的三维人脸语音运动捕获数据特征进行重采样处理,降低训练数据量以提升训练效率,然后运用隐马尔可夫模型(HMM)学习表情人脸语音运动和同步语音的关系,同时统计经过训练的HMM在训练数据集上的合成余量;在合成阶段,首先使用经过训练的HMM从新语音特征中推断与之匹配的表情人脸动画,在此基础上,根据训练阶段计算的合成余量增加表情细节.实验结果表明,文中方法比已有方法计算效率高,合成的表情细节通过了用户评价验证.In order to synthesize facial expression details such as eye blinking and eyebrow-lifting, this paper presents a new speech-driven facial animation method. This method contains two phases, training and synthesizing phases. During the training phase, 3D facial animation data is firstly re sampled to improve training efficiency. Then a hidden Markov model (HMM) is utilized to study the correlation between the expressive facial animation features and the synchronized speeches. At the same time, statistical data of the synthetic residuals is collected from the trained HMM. During the synthesizing phase, firstly, the trained HMM is used to estimate the matching expressive facial animation from the novel input speech features. Secondly, based on the estimated animation, expression details are synthesized using the collected residuals. Numerical and user study experiments show that this method outperforms conventional approaches both in the efficiency and animation quality.
分 类 号:TP391.41[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:18.119.122.86