检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:蓝荣祎[1] 孙怀江[1] 连荷清[1] 祝铭阳[1] 李斌[1]
机构地区:[1]南京理工大学计算机科学与技术学院,南京210094
出 处:《计算机辅助设计与图形学学报》2011年第8期1357-1364,共8页Journal of Computer-Aided Design & Computer Graphics
摘 要:为了精确、高效地检索人体运动数据库,将三维人体运动捕获数据表示成类似于文本的形式,提出一种基于内容的运动检索方法.首先对人体上/下半身两部分数据分别提取关键帧,并进行相似传播聚类分析,获得数据中最具代表性的一组人体姿势,称之为运动词汇;然后将运动片段的每一帧都替换成运动词汇中与其最相近的姿势来构建运动文档,利用Bigram向量空间模型对人体运动进行检索.整个算法流程不需要人为干预,能够自动完成对已分割运动数据片段的索引.实验结果表明,与现有方法相比,文中方法具有更高的检索精度和召回率.For the sake of efficiency and accuracy in retrieving human motions, we model human motion capture data in the form of textual documents and propose a content-based motion retrieval method based on vector space model. In the approach, motion-vocabulary, substantially the most representative human poses, is firstly obtained by applying affinity propagation on the key-pose set which is extracted in advance from database according to upper and lower body respectively. Then motion clips can be represented as motion-documents by replacing each original pose with its closest pose in the motion-vocabulary. Finally we use Bigram vector space model to measure similarities among motions. The approach can automatically index pre-segmented motion clips without human involvement. Experimental results demonstrate the advantages of our approach, both in retrieval accuracy and recall.
关 键 词:运动捕获数据 运动检索 向量空间模型 关键姿势提取 相似传播
分 类 号:TP391.4[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:18.218.110.116