检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:邓文革 王亚军 隋立林 孙国栋 张正博 DENG Wen-Ge;WANG Ya-Jun;SUI Li-Lin;SUN Guo-Dong;ZHANG Zheng-Bo(CHN Energy Digital Intelligence Technology Development(Beijing)Co.Ltd.,Beijing 100011,China;State Key Laboratory of Information Engineering in Surveying,Mapping and Remote Sensing,Wuhan University,Wuhan 430079,China)
机构地区:[1]国能数智科技开发(北京)有限公司,北京100011 [2]武汉大学测绘遥感信息工程国家重点实验室,武汉430079
出 处:《计算机系统应用》2023年第10期235-241,共7页Computer Systems & Applications
摘 要:知识蒸馏被广泛应用于语义分割以减少计算量.以往的语义分割知识提取方法侧重于像素级的特征对齐和类内特征变化提取,忽略了对语义分割非常重要的类间距离知识的传递.为了解决这个问题,本文提出了一种类间距离提取方法,将特征空间中的类间距离从教师网络转移到学生网络.此外,语义分割是一个位置相关的任务,因此本文开发了一个位置信息提取模块来帮助学生网络编码更多的位置信息.在Cityscapes、Pascal VOC和ADE20K这3个流行的语义分割数据集上的大量实验表明,该方法有助于提高语义分割模型的精度,取得了较好的性能.Knowledge distillation is widely adopted in semantic segmentation to reduce the computation cost.The previous knowledge distillation methods for semantic segmentation focus on pixel-wise feature alignment and intra-class feature variation distillation,neglecting to transfer the knowledge of the inter-class distance,which is important for semantic segmentation.To address this issue,this study proposes an inter-class distance distillation(IDD)method to transfer the inter-class distance in the feature space from the teacher network to the student network.Furthermore,since semantic segmentation is a position-dependent task,thus this study exploits a position information distillation module to help the student network encode more position information.Extensive experiments on three popular semantic segmentation datasets:Cityscapes,Pascal VOC,and ADE20K show that the proposed method is helpful to improve the accuracy of semantic segmentation models and achieves great performance.
分 类 号:TP391.41[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:18.216.110.162