工程技术论坛
  • ISSN:3079-9023(Print) 3080-1508 (Online)
  • DOI:10.64216/3080-1508.25.09.065
  • 出版频率:月刊
  • 语言:中文
  • 收录数据库:ISSN:https://portal.issn.org/ 中国知网:https://scholar.cnki.net/journal/search

面向隐私保护的联邦学习模型训练效率优化与跨设备协同学习实践
刘有缘

上海学昶信息技术有限公司,上海闵行区,201100;

摘要:在隐私保护背景下,联邦学习模型训练过程中,数据的非唯一性、不可预测性、分布不均匀等特点使得数据和模型的安全性受到挑战。如何在保证数据隐私和安全性的同时,实现模型的高效训练,成为联邦学习技术研究的关键。本文首先探讨了面向隐私保护的联邦学习模型训练过程中存在的问题,然后介绍了基于数据传输与同步技术和差分隐私技术的联邦学习模型训练效率优化方法,并基于上述优化方法进行了模型训练效率优化实践。最后以跨设备协同学习为例,探讨了基于隐私保护和性能提升相结合的联邦学习模型训练方法,并在数据安全和隐私保护下实现了跨设备协同学习。

关键词:面向隐私保护;联邦学习;模型训练效率优化;跨设备协同学习

参考文献

[1]刘洵.联邦学习的安全梯度聚合及训练效率优化方法[D].中国科学技术大学,2025.

[2]王建树,张南方,徐方,等.基于卷积神经网络的异型卷烟分拣优化算法研究[J].湖北工程学院学报,2024,44(06):82-87.

[3]沈良铎.无线联邦学习的能量效率优化方法[D].北京邮电大学,2024.

[4]曹婧.面向异构分布式系统的深度神经网络训练效率优化方法研究[D].中国科学技术大学,2024.

[5]姚飞翔.异构GPU集群下分布式深度学习训练效率优化研究[D].西北农林科技大学,2023.

上一篇:区块链技术在电子政务数据共享中的安全机制设计与实践

下一篇:计算机应用技术在工业生产过程实时监控系统中的数据传输协议改进与稳定性保障实践