检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:孙惠萍[1] 龚声蓉[1] 王朝晖[1] 刘全[1]
机构地区:[1]苏州大学计算机科学与技术学院,江苏苏州215006
出 处:《计算机工程与应用》2008年第34期175-178,共4页Computer Engineering and Applications
基 金:国家自然科学基金No.60673092;教育部科研重点项目(No.205059)~~
摘 要:相关反馈算法是图像检索不可缺的重要组成部分,是近来图像检索中研究的一个热点。提出了基于强化学习的相关反馈算法。根据强化学习中的Q_学习函数,建立矩阵Q,对每幅图像建立对应的一项Q(ii=1,2,…,n),记录每幅图像的本次检索中的累计反馈值,并根据加权特征法计算新的特征,对于每幅反馈的图像根据Q_学习函数计算其当前的累计反馈值。Q值越大即越与例子图像相关。由于强化学习是通过不断对环境的反馈来获得最佳的路径,这与相关反馈通过对用户检索意图的摸索来获得最优答案的思想一致。实验表明,提出的相关反馈算法具有更大的优越性。Relevance feedback algorithm has been an important compose in image retrieval,and it's a hotspot in the research of image retrieval recently.In this paper,the Reinforcement Learning(RL) based relevance feedback algorithm is proposed.According to Q_learning function of RL,a matrix named Q is established,and for every image counterpart one item Qi(i=1,2,…,n),which is used to record the image's total value of feedback in current retrieval.Each feedback,calculates new features depending on weighted features method,then,calculates every image's current total value of feedback base on Q_learning function.The bigger of the value of Q the more relevant with example image.RL acquires the best path by keeping feed back to the environment,which is consistent the idea of relevance feedback acquires the best answer by grouping the retrieval intention of users.The experiment proves,the algorithmis is more superior.
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.62