查看原文
其他

FedCP: 通过条件策略分离个性化联邦学习的特征信息

The following article is from 隐私计算研习社 Author 张剑清


论文标题:FedCP: Separating Feature Information for Personalized Federated Learning via Conditional Policy

论文来源:KDD2023

论文链接:https://dl.acm.org/doi/10.1145/3580305.3599345

1

前言

本文介绍的是一篇收录于 KDD 2023 的论文,论文由位于上海交通大学的上海市可扩展计算与系统重点实验室、贝尔法斯特女王大学的华扬老师和路易斯安那州立大学的王灏老师共同完成。

该论文提出了一种用于个性化联邦学习的全局和个性化特征信息分离方法FedCP,首次在数据层面实现了全局和个性化信息的分离,为分别处理这两类信息提供了可能。作者对比了11个SOTA模型,并取得了超越最优方法6.69%的优异表现。

图1:通过FedCP方法训练得到的模型具备全局和个性化信息分离能力的例子。第一行为样本图片,第二行为全局特征信息,第三行为个性化特征信息。


2

个性化联邦学习

近年来,由于人们对互联网的依赖逐渐加强,互联网服务对数据隐私保护的诉求也在逐步增加。联邦学习(FL)作为一种新型分布式机器学习范式,因其具有隐私保护能力而备受关注。它能够在保留数据在本地、只传输模型参数的前提下,进行多客户机协同的人工智能(AI)模型训练。如图2所示,每一轮训练过程中,客户机在接收到上一轮学到的全局模型后,在本地数据上进行模型训练,之后只传输训练好的模型参数到服务器;服务器则负责对收到的客户机模型参数进行全局聚合,得到新的全局模型。这一过程不断迭代,直到全局模型的训练收敛。

图2. 联邦学习过程


然而,在实际场景下,由于各个客户机上数据的异质性,每一轮上传到服务器上的客户机模型参数之间具有较大差异,聚合得到的全局模型无法在单个客户机上具有良好的表现。于是研究者们提出个性化联邦学习方法,将学习全局模型的目标,转变为通过全局模型辅助个性化本地模型训练。如图3所示,我们用多种颜色来表示数据异质性。在数据异质的情况下进行协同训练,既要考虑个性化(用于应对异质性)又要考虑全局性(用于协同训练)。如何把握全局和个性化这两者之间的关系,是设计个性化联邦学习方法的关键。


图3. 个性化联邦学习过程


大多数现有的个性化联邦学习方法,仅仅从模型参数层面对全局信息和个性化信息进行分离和分别利用(见图4),却忽略了模型参数中的信息是从数据中学到的这个事实。

图4:三个经典方法Per-FedAvg[1],Ditto[2]和FedRep[3]中从模型参数层面利用全局和个性化信息的示意图

虽然每个客户机上的数据是异质的,但异质数据也是在同一个世界中产生的,或多或少都具有一部分全局信息和另一部分个性化信息,例如图5所示。

图5:不同客户机上的异质数据示意图,其中蓝色代表全局信息,紫色和粉色代表个性化信息


3

从数据中分离和利用全局和个性化信息

由于输入空间的数据维度较高,我们便考虑对转换后的特征向量进行处理。如图6所示,在特征空间中,我们通过设计一个辅助的条件策略网络(CPN)来实现特征信息的分离;随后我们利用全局和个性化头部来分别处理分离出来的两类信息。

图6:FedCP方法的一个例子


图7描述了客户机上的细节,其中圆角矩形代表各个客户机模块,圆角矩形上的斜线代表“冻结”(即不参与训练、不作更新),直角矩形代表各种向量,实线箭头代表数据流,点划线箭头描述了损失函数计算相关信息,菱形则表示特征信息分离操作。此外,半透明的模块表示只在训练过程中参与。实现特征分离的关键在于CPN模块,其模型参数为,根据给定的条件输入(样本特征信息和客户机信息),能输出对应的策略向量()。利用策略向量即可提取得到全局特征信息和个性化特征信息。然后交由全局头部和个性化头部分别处理。最后将输出合并(即加和),得到最终输出值。

图7. FedCP方法中客户机i上的模块及数据流


每一轮的通讯内容如图8所示,相比于现有方法,仅额外传输了轻量级的CPN的参数,并不会引入高昂的通讯成本。


图8:FedCP方法中每一轮通讯中上传和下载的数据流


使用FedCP进行模型训练后,即可得到具有全局和个性化特征信息分离能力的模型,如图1所示。


4

比现有方法好多少

由于空间有限,我们这里只展示主要的实验内容。如表1所示,我们的方法FedCP在多种任务、场景和数据集上,都优于SOTA方法,且获得了至多6.69%的准确率提升。


表1:主要实验中图像和文本数据集上的准确率


5

参考文献

[1] Fallah A, Mokhtari A, Ozdaglar A. Personalized federated learning with theoretical guarantees: A model-agnostic meta-learning approach. NeurIPS, 2020.


[2] Li T, Hu S, Beirami A, et al. Ditto: Fair and robust federated learning through personalization. ICML, 2021.


[3] Collins L, Hassani H, Mokhtari A, et al. utilizing shared representations for personalized federated learning. ICML, 2021.

作者:张剑清,上海交通大学

代码链接:

https://github.com/TsingZ0/FedCP

https://github.com/TsingZ0/PFL-Non-IID


END


热门文章:




隐私计算头条周刊(11.13-11.19)


基于隐私计算的电力数据共享技术系统解决方案及应用


一种基于隐私计算的数据交易模式研究


2023年隐私保护领域的现状和未来


加入我们丨OpenMPC社区招募实习生

继续滑动看下一个
开放隐私计算
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存