检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:张忠林[1] 余炜 闫光辉[1] 袁晨予 ZHANG Zhonglin;YU Wei;YAN Guanghui;YUAN Chenyu(School of Electronic and Information Engineering,Lanzhou Jiaotong University,Lanzhou,Gansu 730070,China)
机构地区:[1]兰州交通大学电子与信息工程学院,甘肃兰州730070
出 处:《中文信息学报》2022年第8期12-19,28,共9页Journal of Chinese Information Processing
基 金:国家自然科学基金(61662043,62062049);甘肃省哲学社会科学规划项目(20YB056)。
摘 要:目前,现有中文分词模型大多是基于循环神经网络的,其能够捕捉序列整体特征,但存在忽略了局部特征的问题。针对这种问题,该文综合了注意力机制、卷积神经网络和条件随机场,提出了注意力卷积神经网络条件随机场模型(Attention Convolutional Neural Network CRF,ACNNC)。其中,嵌入层训练词向量,自注意力层代替循环神经网络捕捉序列全局特征,卷积神经网络捕捉序列局部特征和位置特征,经融合层的特征输入条件随机场进行解码。实验证明该文提出的模型在BACKOFF 2005测试集上有更好的分词效果,并在PKU、MSR、CITYU和AS上取得了96.2%、96.4%、96.1%和95.8%的F值。At present,most of the existing Chinese word segmentation models are based on recurrent neural networks,which can capture the overall features of the sequence while ignoring local features.This paper combines the attention mechanism,convolutional neural network and conditional random fields,and proposes Attention Convolutional Neural Network CRF(ACNNC).The self-attention layer replaces the recurrent neural network to capture the global features of the sequence,and the convolutional neural network captures location features of the sequence.The features are combined in the fusion layer and then input into conditional random fields for decoding.The experimental results on BACKOFF 2005 show that the model proposed achieves 96.2%,96.4%,96.1%and 95.8%Fvalues on PKU,MSR,CITYU and AS test set,respectively.
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:18.118.122.239