前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >UbiComp 2022 | 网络丢包对联邦学习影响很大?中科大数据研究中心团队成果!

UbiComp 2022 | 网络丢包对联邦学习影响很大?中科大数据研究中心团队成果!

作者头像
AI科技评论
发布2022-05-07 13:11:07
8910
发布2022-05-07 13:11:07
举报
文章被收录于专栏:AI科技评论

近日,中国科学技术大学数据空间研究中心智能网络计算研究组近期于普适计算领域顶级会议ACM UbiComp 2022发表论文《面向穿戴设备的公平高效联邦学习算法及应用》。

该论文提出的公平高效联邦学习方案FCFL是一个专门为可穿戴设备设计的全栈式学习系统,在通信效率、公平性、个性化和用户体验方面大大改善了联邦学习的性能。

论文链接:https://www.researchgate.net/publication/359935483

Demo APP 代码链接:https://github.com/OpenMined/KotlinSyft#built-on-kotlinsyft

1

研究背景

可穿戴设备近年来发展迅速,已经成为增长最快的科技产品市场之一。据统计,全球可穿戴设备的出货量从2014年的2900万部到2021年的5.34亿部,增长超过18倍。随着可穿戴设备的普及,用户产生的大量数据有潜力作为机器学习任务的有效数据源。但相关机器学习模型的训练通常需要远超于每个设备收集的数据。

目前,业界普遍将用户数据聚集在云端进行分析。由于对隐私的关注不断增加,对于用户数据的保护越来越受到重视。最近提出的联邦学习可以在保护隐私的前提下协同训练可穿戴数据,然而在目前最先进的联邦学习方案下,网络条件较差的可穿戴设备上的用户数据被忽略了,无法参与到协同训练的过程中。现有的方案有三个主要限制。

(1)采用基于网络带宽阈值的客户端选择方案带来了不公平的问题

(2)联邦学习聚合的通信效率低下

(3)用户缺乏在可穿戴设备上提供反馈的便捷渠道

因此,我们提出了一种公平和高通信效率的联邦学习方案(FCFL)。其中,我们设计了一种名为ThrowRightAway (TRA) 的技术,以放松网络带宽的限制,允许网络较差的客户端被选为参与方,以提高公平性并保证模型训练的效率。为了提高通信效率,我们还提出了Movement Aware Federated Learning (MAFL),只聚合对全局模型有最大贡献的参数更新。最后,我们也实施了一个FCFL支持的用于智能手表应用。

FCFL整体框架

2

研究内容

FCFL可以表示为典型的三层结构设计,如上图所示。可穿戴设备在用户活动期间持续运行,并将收集到的数据周期性地发送到配对的智能手机,这些手机在本地训练模型并参与联邦学习。在全局模型更新后,智能手机将新模型发回给配对的可穿戴设备,从而完成一个循环。FCFL与其他联邦学习可穿戴系统的主要区别是:

(1) FCFL采用TRA,在客户选择过程中消除了网络带宽限制,从而实现了公平训练。

(2) FCFL采用MAFL从参数中选择贡献最大的那一部分,从而提高通信和聚合效率。

(3)FCFL允许用户方便地操作,并实时反馈推理错误,以获得更好的用户体验。

FCFL的核心是ThrowRightAway (TRA) 和Movement Aware Federated Learning (MAFL)。

TRA

最近有工作表明,机器学习算法可以容忍有限的数据丢失(在测试中为10%-35%)。在这项工作的启发下,我们提出TRA算法,允许服务器接受网络带宽达不到要求的客户端数据。

在选择开始时,每个客户将其网络带宽与预设的标准进行比较,并向服务器发送一份报文,该报文只包含关键信息,如0或1,表示带宽是否充足。在收集了所有客户端的报文后,服务器将候选客户端分为充分和不充分。然后,服务器随机选择一些客户端,不论其所属类别,并发送全局模型。客户端在本地训练后发回更新。当检测到丢失时,如果客户端属于带宽充分组,客户端就会重传,若客户端属于带宽不充分组,则进行轻量级的参数"恢复",如下所示:

MAFL

为了进一步提高通信和聚合的效率,我们探讨了局部更新与全局模型收敛的相关性,提出MAFL来选取对全局模型收敛贡献最大的局部更新参数。MAFL利用了 "动量裁剪 "的概念,即选择每次更新中那些最远离0的权重参数。假设ui,j为模型Loss相对于权重Wi,j的梯度,则第t轮参数的更新动量可表示为:

对于一个M层的客户端模型更新动量和全局模型更新动量,两者之间的相似度为:

MAFL的目标是选择最不相关的更新,因为局部更新与全局收敛趋势的相似度越低,它对新的全局模型的改变就越大。由于本轮的全局模型更新动量无法获取,所以我们使用上一轮的来代替。

3

部分结果

综合评估表明,FCFL是一个高效的通信方案,在减少29.77%的上传数据的同时,保证了高达65.07%的公平性。同时,在面对低于一定比例(10%-30%)的数据包丢失时,FCFL实现了强大的个性化性能提升(全局模型准确性提高20%)。后续的用户调查显示,我们实现的FCFL支持的应用大大降低了用户的工作量。更多实验结果见论文原文。

FCFL实验效果

4

主要贡献

在本文中,我们提出了公平和高通信效率的联合学习方案  (FCFL),在可穿戴设备上协同训练模型。具体来说,主要贡献如下:

(1) 我们发现了基于网络带宽阈值的客户端选择方案所造成的偏见问题,并进一步分析了其对目前的联邦学习算法在准确性、公平性和个性化方面的影响。

(2) 我们提出了公平高效的联邦学习方案(FCFL)。FCFL利用ThrowRightAway (TRA) 忽略并替换一些丢失的数据,并使用轻量级的恢复策略避免多次重传。同时,TRA使得无论网络条件如何,都能实现完全公平的客户端选择。FCFL进一步利用Movement Aware Federated Learning (MAFL)发现客户端中最重要的更新,从而提高联邦学习通信和聚合的效率。

(3) 实证评估结果显示,与最先进的算法相比,FCFL在上传通信效率上提高了29.77%,同时FCFL在公平性方面提高了65.07%,个性化性能提高了20%。我们还设计并实现了一个运动监测系统,由智能手表、智能手机和Linux服务器组成,智能手表上的活动识别模型与应用一起进行训练,能够达到超过97%的准确率。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-05-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
联邦学习
联邦学习(Federated Learning,FELE)是一种打破数据孤岛、释放 AI 应用潜能的分布式机器学习技术,能够让联邦学习各参与方在不披露底层数据和底层数据加密(混淆)形态的前提下,通过交换加密的机器学习中间结果实现联合建模。该产品兼顾AI应用与隐私保护,开放合作,协同性高,充分释放大数据生产力,广泛适用于金融、消费互联网等行业的业务创新场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档