检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:李国臣[1,2] 刘展鹏[1] 王瑞波[3] 李济洪[3]
机构地区:[1]山西大学计算机与信息技术学院,山西太原030006 [2]太原工业学院计算机工程系,山西太原030008 [3]山西大学计算中心,山西太原030006
出 处:《中文信息学报》2016年第2期12-17,共6页Journal of Chinese Information Processing
基 金:国家自然科学基金(61503228);国家自然科学基金委员会-广东省政府联合基金(第二期)超级计算科学应用研究专项(NSFC 2015-268)
摘 要:该文以字为基本标注单位,构建了一种汉语基本块识别的神经网络学习模型。模型联合分词任务的神经网络学习模型与基本块识别任务模型,将分词任务模型中学习得到的隐层特征融入基本块识别的模型中,两模型相互交替优化学习模型参数,并实现了以整句似然函数(而非单字似然函数)作为优化目标的算法。实验结果表明:1)以整句似然函数为优化目标的基本块识别的F值比单字似然情形要高出1.33%,特别是在多字块识别中,其召回率比单字似然情形要高出4.68%;2)融合分词任务模型中的隐层特征的汉语基本块识别模型的结果比不做融合的模型要高出2.17%,说明融合分词隐层特征的交替联合学习方法是有效的。Based on the unit of Chinese character,a neural network learning model for Chinese base-chunk identification is constructed.The model combines the neural network learning model of segmentation task with the model of base-chunk identification by using the hidden-layer features of segmentation.The sentence-level likelihood function for base-chunk identification task is employed as the optimization target.The parameters of the two learning model are trained in turn.The experimental results show that:1)the F-score of base-chunk identification with sentencelevel likelihood function is 1.33% higher than that with character-level likelihood function,and especially,the recall for the multi-characters chunk identification is improved as much as 4.68%.2)The final result of using hidden-layer features of segmentation task is 2.17% higher.
关 键 词:分布表征 汉语基本块识别 神经网络模型 隐层特征 整句似然函数
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:3.148.200.145