检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:蒋峰 褚晓敏[1,2] 徐昇 李培峰 朱巧明[1,2] JIANG Feng;CHU Xiaomin;XU Sheng;LI Peifeng;ZHU Qiaoming(School of Computer Sciences and Technology, Soochow University, Suzhou, Jiangsu 215006, China;Provincial Key Laboratory for Computer Information Processing Technology, Suzhou, Jiangsu 215006, China)
机构地区:[1]苏州大学计算机科学与技术学院,江苏苏州215006 [2]江苏省计算机信息技术处理重点实验室,江苏苏州215006
出 处:《中文信息学报》2018年第1期43-50,共8页Journal of Chinese Information Processing
基 金:国家自然科学基金(61773276;61472265;61772354);江苏省科技计划(BK20151222)
摘 要:篇章分析是自然语言处理领域的一个重要任务。分析篇章主次关系有助于理解篇章的结构和语义,并为自然语言处理的应用提供有力的支持。该文在微观篇章主次关系识别研究的基础上,重点研究宏观篇章主次关系,提出了一种基于word2vec和LDA的主题相似度的宏观篇章主次关系识别模型。基于word2vec的主题相似度和基于LDA的主题相似度在不同维度上计算语义相似度,两者在语义层面形成互补,因而增强了模型识别宏观篇章主次关系的能力。该模型在宏观汉语篇章树库(MCDTB)上实验的F1值达到79.9%,正确率达到81.82%,相较基准系统分别提升了1.7%和1.81%。Discourse analysis is an important task in the field of natural language processing.The analysis of primary and secondary relations at discourse-level helps to understand the discourse structure and semantics.Based on the research of micro discourse-level primary and secondary relation recognition,this paper aims at macro discourse-level primary and secondary relation and provides a recognition model based on topic similarity with word2vec and LDA.The topic similarity based on word2vce and the topic similarity based on LDA calculate the semantic similarity on different dimensions.They are complementary at the semantic level,which enhances the ability of the model to recognize the macro discourse-level primary and secondary relations.Experimental results on the Macro Chinese Discourse TreeBank(MCDTB)show that our model achieves 79.9% in F1-score,and 81.82% in accuracy,which improves the baseline by 1.7% and 1.81% ,respectively.
关 键 词:宏观篇章主次关系 主题相似度 word2vec LDA
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.3