自然语言处理

作品数:5107被引量:19966H指数:54
导出分析报告
相关领域:自动化与计算机技术更多>>
相关作者:余正涛高盛祥相艳黄河燕刘挺更多>>
相关机构:北京百度网讯科技有限公司深圳市腾讯计算机系统有限公司昆明理工大学哈尔滨工业大学更多>>
相关期刊:更多>>
相关基金:国家自然科学基金国家高技术研究发展计划国家社会科学基金国家重点基础研究发展计划更多>>
-

检索结果分析

结果分析中...
选择条件:
  • 期刊=计算机应用x
条 记 录,以下是1-10
视图:
排序:
编者按
《计算机应用》2025年第3期F0002-F0002,共1页
“大模型”(大规模预训练模型)自面世以来,其技术发展日新月异。大模型是引领人工智能领域的变革式新范式,能够提供强大的知识表示与聚合能力,已展现出可与人脑媲美的视觉感知与逻辑推理能力。在超大参数规模、海量训练数据和强大计算...
关键词:自然语言处理 计算机视觉 人工智能 训练数据 视觉感知 多学科交叉 泛化能力 逻辑推理能力 
大语言模型综述与展望
《计算机应用》2025年第3期685-696,共12页秦小林 古徐 李弟诚 徐海文 
国家重点研发计划项目(2023YFB3308601);四川省科技计划项目(2024NSFJQ0035,2024NSFSC0004);四川省委组织部人才专项。
大语言模型(LLM)是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练,是当前生成式人工智能(AI)技术的核心。与传统语言模型相比,LLM通过大量的算力、参...
关键词:大语言模型 智能体 自然语言处理 检索增强生成 模型幻觉 
2025年组稿方向
《计算机应用》2025年第3期F0003-F0003,共1页
2025年将特别关注大模型、人工智能、物联网、区块链、量子计算、大数据、隐私安全保护等技术的融合应用。本年度组稿包括但不仅限于以下方向:人工智能:大模型、多视图/多模态学习、统计学习、联邦学习、稳定学习、终身学习、跨模态内...
关键词:自然语言处理 人工智能 群体智能 智能计算 模式识别 智能系统 因果推理 多智能体 
2025年组稿方向
《计算机应用》2025年第2期F0002-F0002,共1页
2025年将特别关注大模型、人工智能、物联网、区块链、量子计算、大数据、隐私安全保护等技术的融合应用。本年度组稿包括但不仅限于以下方向:人工智能:大模型、多视图/多模态学习、统计学习、联邦学习、稳定学习、终身学习、跨模态内...
关键词:自然语言处理 人工智能 群体智能 智能计算 模式识别 智能系统 因果推理 多智能体 
面向知识推理的位置编码标题生成模型
《计算机应用》2025年第2期345-353,共9页王雅伦 张仰森 朱思文 
国家自然科学基金资助项目(62176023)。
义原作为最小的语义单位对于标题生成任务至关重要。尽管义原驱动的神经语言模型(SDLM)是主流模型之一,但它在处理长文本序列时编码能力有限,未充分考虑位置关系,易引入噪声知识进而影响生成标题的质量。针对上述问题,提出一种基于Trans...
关键词:生成式标题 自适应位置编码 TRANSFORMER 知识推理 自然语言处理 
层次融合多元知识的命名实体识别框架——HTLR
《计算机应用》2025年第1期40-47,共8页吕学强 王涛 游新冬 徐戈 
国家自然科学基金资助项目(62171043);北京市自然科学基金资助项目(4212020);华能集团总部科技项目(HNKJ21-HF43);中央引导地方项目(2020L3024);北京市教育委员会研究与发展计划项目(KM202111232001)。
中文命名实体识别(NER)任务旨在抽取非结构化文本中包含的实体并给它们分配预定义的实体类别。针对大多数中文NER方法在上下文信息缺乏时的语义学习不足问题,提出一种层次融合多元知识的NER框架——HTLR(Chinese NER method based on Hi...
关键词:命名实体识别 自然语言处理 知识图谱构建 词汇增强 字形增强 
2025年组稿方向
《计算机应用》2025年第1期F0002-F0002,共1页
2025年将特别关注大模型、人工智能、物联网、区块链、量子计算、大数据、隐私安全保护等技术的融合应用。本年度组稿包括但不仅限于以下方向:人工智能:大模型、多视图/多模态学习、统计学习、联邦学习、稳定学习、终身学习、跨模态内...
关键词:自然语言处理 人工智能 大数据可视化 大数据治理 数据库管理 群体智能 智能计算 信息检索 
基于表征空间结构对齐的跨语言知识迁移方法
《计算机应用》2024年第S2期18-23,共6页任思远 彭程 陈科 何智毅 
在自然语言处理(NLP)领域中,对比学习作为一种高效的句子表征学习方法,有效缓解了基于Transformer的预训练语言模型的各向异性,并显著提升了句子表征的质量。然而,现有研究集中在英语上,尤其是在有监督设置下的情况。由于缺乏有标签数据...
关键词:自然语言处理 对比学习 跨语言知识迁移 多语言预训练模型 表征空间结构对齐 
《计算机应用》“大模型前沿研究与典型应用”专题征文通知
《计算机应用》2024年第10期F0002-F0002,共1页
“大模型”(大规模预训练模型)是引领人工智能领域的变革式新范式,能够提供强大的知识表示与聚合能力,已展现出媲美人脑的视觉感知与逻辑推理能力。在超大参数规模、海量训练数据和强大计算资源支撑下,大规模基础模型(CLIP、SAM、GPT-4V...
关键词:《计算机应用》 自然语言处理 计算机视觉 人工智能 训练数据 视觉感知 逻辑推理能力 典型应用 
大语言模型驱动的立场感知事实核查
《计算机应用》2024年第10期3067-3073,共7页姜雨杉 张仰森 
国家自然科学基金资助项目(62176023)。
为解决事实核查领域的证据立场不平衡和忽略立场信息的问题,提出一种大语言模型(LLM)驱动的立场感知事实核查(LLM-SA)方法。首先,使用LLM推理并生成一系列与原始声明立场不同的辩证声明,使事实核查任务能够获取不同立场的视角;其次,通...
关键词:事实核查 自然语言处理 大语言模型 提示工程 立场感知 多头注意力机制 
检索报告 对象比较 聚类工具 使用帮助 返回顶部