基于互蒸馏技术的边云协同动态联邦学习模型分析  

Analysis of Dynamic Federated Learning via Mutual Distillation Technique in Edge-Cloud Collaboration

在线阅读下载全文

作  者:陈乾 徐宏力[1,2] CHEN Qian;XU Hongli(School of Computer Science and Technology,University of Science and Technology of China,Anhui230026,China;Suzhou Institute for Advanced Research,University of Science and Technology of China,Jiangsu 235123,China)

机构地区:[1]中国科学技术大学计算机科学与技术学院,安徽230026 [2]中国科学技术大学苏州高等研究院,江苏235123

出  处:《电子技术(上海)》2024年第3期50-52,共3页Electronic Technology

基  金:国家重点研发计划项目(2021YFB3301500)。

摘  要:阐述一种基于互蒸馏的边云协同动态联邦学习算法FedAKD。通过上传蒸馏模型减少通信资源消耗,并通过SW-UCB算法自适应调节每轮训练的互蒸馏,从而解决数据异构问题并加快模型的训练。使用CIFAR10和CIFAR100数据集在三种不同数据异构下对FedAKD进行验证,证明了FedAKD的有效性和高效性。This paper describes a edge cloud collaborative dynamic federated learning algorithm FedAKD based on mutual distillation.It reduces communication resource consumption by uploading distillation models and adaptively adjusts the mutual distillation of each training round through the SW-UCB algorithm,thereby solving the problem of data heterogeneity and accelerating model training.It validated FedAKD using the CIFAR10 and CIFAR100 datasets under three different data heterogeneity,demonstrating the effectiveness and efficiency of FedAKD.

关 键 词:边缘计算 联邦学习 互蒸馏 数据异构 资源受限 

分 类 号:TP183[自动化与计算机技术—控制理论与控制工程] TP273[自动化与计算机技术—控制科学与工程]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象