检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:吴晓春[1] 吴娴[1] 李培峰[1] 朱巧明[1]
机构地区:[1]苏州大学计算机科学与技术学院,江苏苏州215006
出 处:《计算机工程与科学》2008年第11期129-133,共5页Computer Engineering & Science
摘 要:由于庞大的训练语料,统计语言模型的大小往往会超出手持设备的存储能力。随着现阶段资源受限设备的迅速发展,语言模型的压缩研究也就显得更加重要。本文提出了一个语言模型压缩方法,即将次数剪切与规则剪枝方法相结合,并使用分组的方法保证在不减少单元数目的情况下压缩模型。文章对使用新的算法得到的语言模型与次数剪切和规则剪枝方法分别进行困惑度比较。实验结果表明,使用新方法得到的语言模型性能更好。Currently the size of most statistical language models based on large-scale training corpus always goes beyond the storage ability of many handheld devices. With the rapid development of the limited resource devices, the research on language model compression can meet such requirements. This paper proposes a language model compression method which combined the count cutoff and the pruning method to reduce the size of the language model and uses grouping to compress this model without cell reduction. Our experimental results show that our method can achieve higher perplexity than those of other methods based on the same size.
分 类 号:TP391.1[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.15