融合知识蒸馏与迁移学习的小样本学习方法  

FEW-SHOT LEARNING BASED ON KNOWLEDGE DISTILLATION AND TRANSFER LEARNING

在线阅读下载全文

作  者:黄友文[1] 胡燕芳 魏国庆 Huang Youwen;Hu Yanfang;Wei Guoqing(School of Information Engineering,Jiangxi University of Science and Technology,Ganzhou 341000,Jiangxi,China)

机构地区:[1]江西理工大学信息工程学院,江西赣州341000

出  处:《计算机应用与软件》2025年第4期319-325,334,共8页Computer Applications and Software

基  金:江西省教育厅科技项目(GJJ180443)。

摘  要:针对样本数量过少易造成深度模型在训练数据上过拟合的问题,提出一种融合知识蒸馏与迁移学习的小样本学习方法。该文设计多代蒸馏网络结构,提高浅层网络对小样本图像的特征表达能力;通过改进的迁移学习结构调整少量参数,进一步提升网络的泛化能力;结合多分类器对经过蒸馏和迁移得到的网络进行融合。在三个数据集上的实验结果表明,所提方法能够有效提高模型在新任务上的分类性能,使得小样本预测结果更加准确。Aiming at overfitting training data in deep model caused by too few samples,we propose a few-shot learning method that combines knowledge distillation and transfer learning.In order to improve the feature expression ability of shallow network for small sample images,we designed a multi-generation distillation network structure.A modified transfer learning structure was given to enhance the generalization ability of the network by adjusting few parameters.Multiple classifiers were combined to fuse the networks obtained through distillation and transfer.The experiments on three few-shot standard datasets show that the proposed model can effectively improve the classification ability of the model and make the few-shot prediction results more accurate.

关 键 词:小样本学习 图像分类 知识蒸馏 迁移学习 集成学习 

分 类 号:TP391.4[自动化与计算机技术—计算机应用技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象