前往小程序,Get更优阅读体验!
立即前往
发布
社区首页 >专栏 >[IJCAI 2022 | 论文简读] 基于知识蒸馏的持续联邦学习

[IJCAI 2022 | 论文简读] 基于知识蒸馏的持续联邦学习

作者头像
智能生信
发布2022-12-29 17:02:58
发布2022-12-29 17:02:58
1.1K0
举报
文章被收录于专栏:智能生信智能生信

简读分享 | 乔剑博 编辑 | 赵晏浠

论文题目

Continual Federated Learning Based on Knowledge Distillation

论文摘要

联邦学习 (FL) 是一种很有前途的方法,可以在不暴露其隐私的情况下,在多个客户拥有的去中心化数据上学习共享全球模型。在现实世界的场景中,客户端积累的数据会随着时间的推移而变化。因此,全局模型在学习新任务时往往会忘记从先前任务中获得的知识,呈现出“灾难性遗忘”的迹象。以前的集中学习研究使用数据重放和参数正则化等技术来减轻灾难性遗忘。不幸的是,这些技术无法充分解决 FL 中的重要问题。作者建议使用蒸馏持续联合学习 (CFeD) 来解决 FL 下的灾难性遗忘问题。CFeD 在客户端和服务器上执行知识蒸馏,每一方独立拥有一个未标记的代理数据集,以减少遗忘。此外,CFeD为不同的客户分配不同的学习目标,即学习新任务和复习旧任务,旨在提高模型的学习能力。结果表明,作者的方法在减轻灾难性遗忘方面表现良好,并在两个目标之间取得了良好的平衡。

论文链接

https://www.ijcai.org/proceedings/2022/0303.pdf

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-10-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 智能生信 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档