检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:高媛 石润华 刘长杰 GAO Yuan;SHI Runhua;LIU Changjie(School of Control and Computer Engineering,North China Electric Power University,Beijing 102206,China)
机构地区:[1]华北电力大学控制与计算机工程学院,北京102206
出 处:《智能系统学报》2024年第6期1395-1406,共12页CAAI Transactions on Intelligent Systems
基 金:国家自然科学基金面上项目(61772001).
摘 要:差分隐私被广泛应用于联邦学习中,以保障模型参数的安全,但不够合理的加噪方式会限制模型准确度进一步提高。为此,提出一种能够自适应分配隐私预算和计算学习率的联邦学习方案(differential privacyfederated learning adaptive gradient descent,DP-FLAGD),通过自适应分配隐私预算找到梯度的正确下降方向,并计算合适的学习率以达到最小的损失。同时,DP-FLAGD方案能够为不同隐私需求的用户提供不同的隐私预算,以满足其需求。为评估DP-FLAGD的有效性,在广泛使用的2个数据集MNIST(modiffe national institute of standard and technology)和CIFAR-10上进行相关实验,实验结果表明,DP-FLAGD方案在保证模型参数安全的同时,能够进一步提高模型的准确率。Differential privacy is widely used in federated learning to ensure the security of model parameters.However,inappropriate methods for adding noise can limit the further improvement of model accuracy.A federated learning method with adaptive allocation of the privacy budget and calculation of the learning rate(DP–FLAGD)is proposed to address this problem.Through the adaptive allocation of the privacy budget,the right descending direction of the gradient can be identified,and the appropriate learning rate can be calculated to achieve minimal loss.Simultaneously,DP–FLAGD provides different privacy budgets for users with various privacy requirements.Experiments were conducted on two widely used datasets,namely MNIST and CIFAR-10,to evaluate the validity of DP–FLAGD.Experimental results show that the DP–FLAGD scheme can further improve model accuracy while ensuring the safety of model parameters.
关 键 词:联邦学习 差分隐私 自适应 梯度下降 卷积神经网络 学习率 梯度 隐私预算
分 类 号:TP181[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.118