训练语言

作品数:74被引量:76H指数:6
导出分析报告
相关领域:文化科学语言文字更多>>
相关作者:丁效刘晶王旭吕华季海鹏更多>>
相关机构:中国科学院大学哈尔滨工业大学浙江大学广西师范大学更多>>
相关期刊:更多>>
相关基金:国家自然科学基金上海市自然科学基金江苏省自然科学基金国家部委资助项目更多>>
-

检索结果分析

结果分析中...
条 记 录,以下是1-10
视图:
排序:
基于电力设备大数据的预训练语言模型构建和文本语义分析
《中国科技期刊数据库 工业A》2024年第12期141-144,共4页孙振东 梁誉锵 曹仲南 石和熹 王怡 
电力设备在电网运行中具有非常重要的作用,直接关系到电网运行的安全性和稳定性。随着计算机技术、云计算技术以及信息技术等在电力系统调度中的广泛应用,构建电力设备文本语义模型来进行电力设备故障和缺陷的诊断分析,提升电力设备故...
关键词:电力设备 大数据 超大规模预训练 语言模型 文本语义分析 
面向中国海关进出口商品税率检测的预训练语言模型CC-BERT
《中文信息学报》2024年第10期155-164,共10页周成杰 车超 张强 周东生 
国家重点研究与发展计划(2018YFC0910500);国家自然科学基金(61425002,61751203,61772100,62076045)。
判定商品税率以便进行税收是海关最重要的职能之一,其肩负着国家财政收入与再分配的重要作用。预训练语言模型(BERT)的提出,刷新了众多自然语言处理任务的最优结果。但是由于海关文本数据的特殊性,导致BERT在海关进出口商品税率检测(文...
关键词:预训练语言模型 税率检测 结构化文本 
大型预训练语言模型基础逻辑能力测评研究
《曲阜师范大学学报(自然科学版)》2024年第3期89-95,共7页倪睿康 肖达 高鹏 
中国博士后科学基金(2023M732022);山东省自然科学基金(ZR2021QF061);曲阜师范大学科研基金(167/602801).
针对数量问题、集合关系、量词问题和常识推理等4类基本逻辑推理问题,构建少样本学习模板,对数据集进行自动生成扩展,设计了11个逻辑推理子任务.采用语境学习和提示微调2种少样本学习方法,从模型、测试、任务3个维度测试了GPT-Neo-1.3B...
关键词:自然语言处理 预训练语言模型 语境学习 提示微调 少样本学习 
基于BERT和DBSCAN工程项目维保文本数据挖掘
《安徽理工大学学报(自然科学版)》2023年第4期87-93,共7页胡学聪 
随着人口增速放缓,建筑行业的目标正逐渐由追求高周转率向追求高品质过渡。在项目交付和维保过程中,客户的维保诉求体现其关心的痛点和项目建设过程中的不足。因此,通过有效挖掘维保文本价值可在施工过程中加强针对性的监管,帮助公司交...
关键词:中文短文本 客户投诉 聚类分析 维保分析 预训练语言表征模型 
基于电力设备大数据的预训练语言模型构建和文本语义分析被引量:9
《中国电机工程学报》2023年第3期1027-1036,共10页贾骏 杨强 付慧 杨景刚 何禹德 
在电力设备运维管理过程中,如何运用非结构化文本信息,构造电力设备文本语义分析模型,挖掘非结构化文本信息,提升设备缺陷和故障的诊断速度和准确性,辅助电网运行检修决策,是非常具有应用价值的问题。该文提出基于超大规模预训练方法的...
关键词:深度学习 预训练语言模型 电力设备 自然语言处理 语义分析 缺陷分级 
预训练语言模型的应用综述被引量:13
《计算机科学》2023年第1期176-184,共9页孙凯丽 罗旭东 罗有容 
广西多源信息挖掘与安全重点实验室系统性研究课题(22-A-01-02)。
近年来,预训练语言模型发展迅速,将自然语言处理推到了一个全新的发展阶段。文中的综述旨在帮助研究人员了解强大的预训练语言模型在何处以及如何应用于自然语言处理。具体来讲,首先简要回顾了典型的预训练模型,包括单语言预训练模型、...
关键词:预训练语言模型 自然语言处理 深度学习 信息提取 情感分析 问答系统 文本摘要 机器翻译 
《雾在哪里》教学定位偏差辨析
《语文世界(上旬刊)》2022年第10期48-48,共1页吴倩云 
在教学统编教材二年级上册《雾在哪里》一课时,为了更全面地解读文本,准确把握语文要素学习目标,笔者在备课时通过网上搜索资料,看到了张丽老师发表在《小学语文教师》2019年11期的文章《巧借文本,发展想象,训练语言》,谈的正是《雾在...
关键词:小学语文教师 统编教材 网上搜索 定位偏差 解读文本 教学设计 文本解读 训练语言 
基于预训练表示模型的英语词语简化方法被引量:5
《自动化学报》2022年第8期2075-2087,共13页强继朋 钱镇宇 李云 袁运浩 朱毅 
国家自然科学基金(62076217,61906060,61703362);江苏省自然科学基金(BK20170513)资助。
词语简化是将给定句子中的复杂词替换成意义相等的简单替代词,从而达到简化句子的目的.已有的词语简化方法只依靠复杂词本身而不考虑其上下文信息来生成候选替换词,这将不可避免地产生大量的虚假候选词.为此,提出了一种基于预语言训练...
关键词:词语简化 候选词生成 候选词排序 预训练语言表示模型 
基于Transformer的自然语言处理预训练语言模型概述被引量:8
《信息与电脑》2022年第10期52-56,共5页史童月 王中卿 
国家自然科学基金(项目编号:62076175,61976146);江苏省双创博士计划和苏州大学大学生课外学术科研基金(项目编号:KY20220735B)。
在自然语言处理领域,谷歌提出Transformer模型之后,以生成式预训练模型(Generative Pre-Training,GPT)和深度双向预训练语言模型(Bidirectional Encoder Representat ions from Transformers,BERT)等为代表的一些基于Transformer的预训...
关键词:TRANSFORMER 自然语言处理 预训练模型 
引导学生在观察中感受世界的“奇妙”——《我们奇妙的世界》教学设计
《云南教育(小学教师)》2022年第5期30-32,共3页杨保鸿 
教材简析:《我们奇妙的世界》(统编语文三年级下册)是一篇写景的文章,课文按照“总—分—总”的结构方式,通过描写天空中的缤纷色彩、奇妙形状和大地丰富的物产,表达了作者对大自然的无比热爱之情。教学时,教师要紧扣单元主题“奇妙的...
关键词:单元主题 感受力 开展教学 教学设计 课文选择 训练语言 热爱之情 乐于观察 
检索报告 对象比较 聚类工具 使用帮助 返回顶部