检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]信息工程大学,河南郑州450001
出 处:《信息工程大学学报》2014年第4期453-458,465,共7页Journal of Information Engineering University
基 金:国家自然科学基金资助项目(60872142)
摘 要:传统的视觉语言模型(visual language model,VLM)只考虑了相邻视觉单词之间的空间位置关系,不考虑不相邻视觉单词之间的贡献。针对传统视觉语言模型的不足,提出了一种N步长距离视觉语言模型,并将其用于图像分类。该方法首先给出了相隔N个视觉单词的二元依赖关系,然后训练长距离视觉语言模型,最后通过不同的权重分配方式进行融合,得到3种不同的图像分类方法。实验比较了不同参数和分类方法对图像分类的影响,结果表明,文章方法能在一定程度上改善视觉语言模型对图像表达的准确度,进而提高图像分类的准确率。Traditional visual language models only considers the spatial relationship between adja- cent visual words, and ignores the non-adjacent pairs. Aiming at the shortcomings of traditional visual language models, this paper presents a improved skip-N long distance visual language model which can get more spatial information between words. It also describes the relations by which the words are separated by compared words, and trains the model. Finally, three classification methods are experimentally N by different weight allocations and the effects of different parameters. The resuits show that the skip-N long distance visual language model can improve the accuracy of image classification to certain extent.
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.112