检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:张骏[1] 杨燕[1] 霍沛 孙宇翔 李程烽 李勇[1] ZHANG Jun;YANG Yan;HUO Pei;SUN Yuxiang;LI Chengfeng;LI Yong(School of Computer Science and Technology,East China Normal University,Shanghai 200062,China)
机构地区:[1]华东师范大学计算机科学与技术学院,上海200062
出 处:《中文信息学报》2021年第5期110-117,共8页Journal of Chinese Information Processing
摘 要:智能推荐型对话系统通过丰富的交互方式与用户进行交流,首先收集用户兴趣和偏好,然后主动地向用户推荐其感兴趣的内容。因此,该类系统通常涵盖多种对话类型,如问答、闲聊、推荐等。目前的研究采用流水线模型,存在误差累积的问题。该文提出基于Transformer的具有知识感知能力的对话生成模型完成面向推荐的多类型对话任务。该模型使用Transformer解码器隐式地学习对话目标路径并生成回复。此外,该文通过引入知识编码器和基于知识词表的Copy机制,提升模型对知识的感知能力。在DuRecDial数据集上的实验表明,提出的模型和基线模型相比在自动评估中取得了显著的性能提升,其中F1、BLEU与Distinct分别提升了59.08%、110%、66.14%。该模型在2020语言与智能技术竞赛:面向推荐的对话任务中获得第三名。An intelligent recommended dialogue system communicates with users in rich interactive ways, which usually covers multiple types of dialogue, such as question answering, chit-chat, recommendation dialogs, etc. In contrast to the current pipeline model, we propose a knowledge-aware dialogue generation model based on Transformer to accomplish conversational recommendation over multi-type dialog task. We use a Transformer decoder to implicitly learn dialogue goal path and generate a reply. Additionally, we introduce a knowledge encoder and a copy mechanism to enhance the model’s ability to perceive knowledge. Experimental results on the DuRecDial dataset show that the proposed model achieves a significant improvement in terms of F1, BLEU and Distinct over the baseline models by 59.08%, 110.00%, 66.14%, respectively. Our model ranked at the third place in 2020 Language and Intelligent Technology Competition: Conversational Recommendation Task.
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.145