词典机制

作品数:24被引量:72H指数:5
导出分析报告
相关领域:自动化与计算机技术更多>>
相关作者:潘志安韩莹陈新房张艳霞王茂发更多>>
相关机构:中国科学技术大学燕山大学西藏大学南京大学更多>>
相关期刊:《计算机应用与软件》《计算机应用研究》《电脑知识与技术》《计算机工程》更多>>
相关基金:国家自然科学基金国家高技术研究发展计划浙江省自然科学基金江苏省自然科学基金更多>>
-

检索结果分析

结果分析中...
条 记 录,以下是1-10
视图:
排序:
中文分词算法研究综述被引量:12
《成组技术与生产现代化》2018年第3期1-8,共8页汪文妃 徐豪杰 杨文珍 吴新丽 
国家自然科学基金重点资助项目(61332017);国家重点研发计划资助项目(2017YFB1002803;2018YFB1004901);浙江省自然科学基金重点资助项目(LZ14E050003);广州市创新创业领军团队资助项目(CXLJTD-201609)
针对制约中文分词算法效能的歧义消除和未登录词识别两大瓶颈,归纳和总结近年来基于词典、基于统计以及基于语义理解中文分词算法的研究内容.基于词典的分词算法以提高时间和空间效率为目标,通过改进词典结构来提高分词效率.双字哈希结...
关键词:中文分词 歧义消除 未登录词识别 词典机制 语义理解 深度学习 
基于双哈希词典机制中文分词的研究被引量:1
《信息技术》2016年第11期152-156,共5页刘超 王卫东 
汉语词典机制很大程度上影响中文分词的效率。为了提高现有基于词典的分词机制的查询效率,在双哈希词典机制和整词二分法相结合的基础上提出了一种有效的中文分词词典机制——双哈希编码分词词典机制。首字采用散列表保存,剩余字符逐个...
关键词:中文分词 词典机制 双哈希 
一种基于词典的中文分词改进算法被引量:2
《软件导刊》2016年第3期42-44,共3页郑木刚 刘木林 沈昱明 
国家自然科学基金面上项目(71473114)
深入探讨基于词典的分词过程、常见词典结构以及分词算法。在分析现有系统的基础上,设计一个新的词典结构,对经典的分词算法进行改进,通过词典加载功能改善未登录词的识别问题,通过双向匹配算法获取最优分词结果,改善歧义识别问题。
关键词:中文分词 双向匹配算法 词典机制 
基于匹配算法的藏文自动分词被引量:2
《电子技术与软件工程》2016年第1期169-170,共2页陈硕 赵栋材 周欢欢 
西藏大学国家级大学生创新性实验训练计划项目(201410694019);教育部人文社科基金项目(13YJCZH128)
实现了一种基于哈希表索引和匹配算法的藏文分词的系统。进行分词时,为达到消除部分歧义的目的,采用了正向最大匹配和逆向最大匹配算法相结合的方式进行藏文分词,通过分别计算两种分词结果的频率,然后选择频率较大的一个。最终,通过对2...
关键词:藏文分词 匹配算法 哈希表 词典机制 
一种适用于移动搜索的中文分词算法被引量:2
《西安邮电大学学报》2015年第4期62-65,共4页贺菲菲 贺炎 齐静娜 
国家自然科学基金资助项目(61373116);西安邮电大学青年基金资助项目(ZL2014-27)
针对现有中文分词算法无法为移动搜索提供用户兴趣偏好信息的现状,提出一种改进的正向最大匹配中文分词算法。该算法基于逐字二分的分词词典机制,添加词分类信息,在词典中存储了每个词条的分类信息,分词时采用改进的次字区位码哈希非均...
关键词:中文分词 词典机制 词分类信息 
基于双哈希结构的整词二分词典机制被引量:3
《计算机工程与设计》2014年第11期3956-3960,共5页张贤坤 李亚南 田雪 
天津市科技型中小企业创新资金基金项目(12ZXCXGX33500)
为提高逆向最大匹配分词算法的速率,分析传统的整词二分词典机制,针对哈希结构尾字词典的不足,提出一种基于双哈希结构的整词二分词典机制,并改进对应的逆向最大匹配算法。利用记录词长的尾字词典机制,使用双哈希结构保存词条,降低词典...
关键词:中文分词 词典机制 尾字词典 哈希结构 逆向最大匹配算法 
中文信息检索中词典机制分词算法的研究被引量:6
《计算机技术与发展》2014年第4期118-121,共4页宗中 
江苏省自然科学基金项目(BK2009425)
中文自动分词是实现搜索引擎信息检索的基础,分词词典是汉语自动分词系统的一个重要组成部分,词典的加载和查询速度直接影响到分词系统的速度。文中在研究传统词典机制的基础上,分析了基于双字哈希词典机制对词条除首次字外剩余词的不足...
关键词:信息检索 中文分词 数据结构 哈希 
基于小字符集的藏文自动分词技术研究被引量:3
《西藏大学学报(社会科学版)》2013年第5期43-47,共5页才华 
2013年度西藏大学青年科研培育基金项目"Unicode藏文分词相关技术研究"阶段性成果;项目号:ZDPJZK201314
文章针对传统藏文分词的切词难点及切分歧义现象,提出一种基于小字符集的藏文自动分词技术方案。其中包括分词预处理、多级Hash词典机制、藏文格助词紧缩格的判别及还原规则、逐字匹配算法和未登录词的处理等内容。
关键词:藏文自动分词 分块预处理 多级Hash词典机制 藏文紧缩格 逐字匹配算法 
一种基于双哈希二叉树的中文分词词典机制被引量:4
《计算机应用与软件》2013年第5期251-253,306,共4页罗洋 
汉语自动分词是汉语信息处理的前提,词典是汉语自动分词的基础,分词词典机制的优劣直接影响到中文分词的速度和效率。详细介绍汉语自动分词的三种方法及五种词典机制,提出一种简洁而有效的中文分词词典机制,并通过理论分析和实验对比说...
关键词:中文信息处理 自动分词 词典 哈希 二叉树 索引 
基于双词典机制的中文分词系统设计被引量:4
《机械工程与自动化》2013年第1期17-19,共3页李玲 
中文分词是中文信息处理的基础技术之一,被广泛应用于搜索引擎、机器翻译、自动分类、自动校对、语音合成等方面。阐述了一种基于双词典机制的中文分词系统的设计。该设计中,构造了标准词典、临时词典和临时高频词表组成的双词典机制作...
关键词:中文分词 双词典机制 歧义处理 
检索报告 对象比较 聚类工具 使用帮助 返回顶部