李寿山

作品数:83被引量:457H指数:12
导出分析报告
供职机构:苏州大学计算机科学与技术学院更多>>
发文主题:文本分类器情感分类语料最大熵更多>>
发文领域:自动化与计算机技术文化科学语言文字理学更多>>
发文期刊:《科技创新导报》《北京大学学报(自然科学版)》《山东大学学报(理学版)》《江西师范大学学报(自然科学版)》更多>>
所获基金:国家自然科学基金模式识别国家重点实验室开放课题基金江苏省高校自然科学研究项目国家教育部博士点基金更多>>
-

检索结果分析

署名顺序

  • 全部
  • 第一作者
结果分析中...
条 记 录,以下是1-10
视图:
排序:
融合任务知识的多模态知识图谱补全
《软件学报》2025年第4期1590-1603,共14页陈强 张栋 李寿山 周国栋 
国家自然科学基金(62206193,62076176,62076175)。
知识图谱补全任务旨在根据已有的事实三元组(头实体、关系、尾实体)来挖掘知识图谱中缺失的事实三元组.现有的研究工作主要致力于利用知识图谱中的结构信息来进行知识图谱补全任务.然而,这些工作忽略了知识图谱中蕴含的其他模态的信息...
关键词:知识图谱补全 多模态 知识融合 多模态融合 
基于多教师多学生知识蒸馏的情感分类方法
《中文信息学报》2024年第10期127-134,共8页常晓琴 李雅梦 李子成 李寿山 
国家自然科学基金(62076176)。
预训练语言模型在情感分类任务中取得了卓越的性能提升。然而,预训练模型的巨额参数量和缓慢的推理速度成为这些模型应用落地的主要障碍。知识蒸馏是一种将知识从大型的预训练教师模型转移到小型学生模型的技术。不同于现有的单教师或...
关键词:情感分类 知识蒸馏 集成学习 模型压缩 
基于联合学习的少样本多类别情感分类方法被引量:1
《北京大学学报(自然科学版)》2023年第1期57-64,共8页李子成 常晓琴 李雅梦 李寿山 周国栋 
国家自然科学基金(62076176)资助
对于多类别的细粒度情感分类任务,目前主流的少样本学习方法不能取得较好的性能。针对这一问题,提出一种基于联合学习的少样本多类别情感分类方法。采用基于替换词检测任务的少样本学习方式,将回归和分类的替换词检测模板以及标签描述...
关键词:情感分类 少样本学习 联合学习 
结合情感信息的个性化对话生成被引量:3
《计算机科学》2022年第S02期99-104,共6页徐晖 王中卿 李寿山 张民 
如今,人机对话系统受到了越来越多的关注,但目前主流的人机对话系统很少考虑说话者的个性化特征。对话系统的一个重要且有待探索的方面是根据交互人员的个性来提升对话的响应质量。个性化是创建智能对话系统的关键,可以最大程度地适应...
关键词:自然语言处理 对话生成 个性化 神经网络 情感 属性 
基于维度-标签信息的多元情绪回归方法被引量:1
《中文信息学报》2022年第12期149-158,共10页谭惜姿 朱苏阳 李寿山 周国栋 
人工智能应急项目(61751206);国家重点研发计划子课题(2020AAA0108604);国家自然科学基金(62106166)。
近年来,情绪分析方法的研究得到了飞跃式的进展,但作为情绪分析研究任务之一的情绪回归任务因语料的匮乏,目前还没有取得突破性的成果。相比情绪分类的研究,情绪回归方法受分类体系的影响较小,更具有泛化性。该文提出了一种基于维度-标...
关键词:情绪回归 多任务模型 维度-标签信息 情绪分析 
基于对话结构的多轮对话生成模型被引量:5
《软件学报》2022年第11期4239-4250,共12页姜晓彤 王中卿 李寿山 周国栋 
国家自然科学基金(61806137,61702149)。
目前,多轮对话生成研究大多使用基于RNN或Transformer的编码器-解码器架构.但这些序列模型都未能很好地考虑到对话结构对于下一轮对话生成的影响.针对此问题,在传统的编码器-解码器模型的基础上,使用图神经网络结构对对话结构信息进行建...
关键词:图神经网络 对话生成 人机对话 对话结构 
基于多任务预训练模型的属性级情感分类
《中文信息学报》2022年第10期126-134,共9页周敏 王中卿 李寿山 周国栋 
国家自然科学基金(62076175,61976146);江苏省双创博士计划。
目前,缺少标注样本数据是属性级情感分类任务面临的一大难题,为了解决这一问题,该文提出了结合多项任务的预训练Bert模型。该模型利用大量未标注的篇章级情感分类数据,结合多种分类任务预训练模型共享参数,迁移属性级评论和篇章级评论...
关键词:Bert 多任务 情感分类 
基于对话约束的回复生成研究被引量:1
《中文信息学报》2022年第8期144-153,共10页管梦雨 王中卿 李寿山 周国栋 
国家自然科学基金青年基金(61806137)。
现有的对话系统中存在着生成“好的”“我不知道”等无意义的安全回复问题。日常对话中,对话者通常围绕特定的主题进行讨论且每句话都有明显的情感和意图。因此该文提出了基于对话约束的回复生成模型,即在Seq2Seq模型的基础上,结合对对...
关键词:对话生成 主题识别 情感识别 意图识别 
基于知识蒸馏与模型集成的事件论元抽取方法被引量:1
《计算机工程》2022年第7期97-103,共7页王士浩 王中卿 李寿山 周国栋 
国家自然科学基金(61806137,61702518);江苏省高等学校自然科学研究面上项目(18KJB520043)。
目前先进的事件论元抽取方法通常使用BERT模型作为编码器,但BERT巨大的参数量会降低效率,使模型无法在计算资源有限的设备中运行。提出一种新的事件论元抽取方法,将事件论元抽取教师模型蒸馏到2个不同的学生模型中,再对2个学生模型进行...
关键词:事件论元抽取 知识蒸馏 模型集成 预训练语言模型 模型压缩 
基于多层LSTM融合的多模态情绪识别被引量:3
《中文信息学报》2022年第5期145-152,共8页张亚伟 吴良庆 王晶晶 李寿山 
国家自然科学基金(62006166,61976146,62076176);中国博士后科学基金(2019M661930);江苏高校优势学科建设工程自主项目。
情绪分析一直是自然语言处理领域的研究热点,而多模态情绪分析是当前该领域的一个挑战。已有研究在上下文信息和不同模态时间序列信息交互方面存在不足,该文提出了一个新颖的多层LSTM融合模型(Multi-LSTMs Fusion Model, MLFN),通过分层...
关键词:多模态 情绪分析 LSTM 
检索报告 对象比较 聚类工具 使用帮助 返回顶部