检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:黄友文[1] 胡燕芳 魏国庆 Huang Youwen;Hu Yanfang;Wei Guoqing(School of Information Engineering,Jiangxi University of Science and Technology,Ganzhou 341000,Jiangxi,China)
机构地区:[1]江西理工大学信息工程学院,江西赣州341000
出 处:《计算机应用与软件》2025年第4期319-325,334,共8页Computer Applications and Software
基 金:江西省教育厅科技项目(GJJ180443)。
摘 要:针对样本数量过少易造成深度模型在训练数据上过拟合的问题,提出一种融合知识蒸馏与迁移学习的小样本学习方法。该文设计多代蒸馏网络结构,提高浅层网络对小样本图像的特征表达能力;通过改进的迁移学习结构调整少量参数,进一步提升网络的泛化能力;结合多分类器对经过蒸馏和迁移得到的网络进行融合。在三个数据集上的实验结果表明,所提方法能够有效提高模型在新任务上的分类性能,使得小样本预测结果更加准确。Aiming at overfitting training data in deep model caused by too few samples,we propose a few-shot learning method that combines knowledge distillation and transfer learning.In order to improve the feature expression ability of shallow network for small sample images,we designed a multi-generation distillation network structure.A modified transfer learning structure was given to enhance the generalization ability of the network by adjusting few parameters.Multiple classifiers were combined to fuse the networks obtained through distillation and transfer.The experiments on three few-shot standard datasets show that the proposed model can effectively improve the classification ability of the model and make the few-shot prediction results more accurate.
关 键 词:小样本学习 图像分类 知识蒸馏 迁移学习 集成学习
分 类 号:TP391.4[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.49