首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    学会忘记: 联邦学习法中的用户记忆消除(CS LG)

    学会忘记:联邦学习中的用户级记忆消除是一种分散性的机器学习技术,在研究领域和现实市场都引起了广泛的关注。 然而,目前保护隐私的联邦学习方案只是为用户提供了一个安全的方式来贡献他们的私有数据,而没有留下一个方法来收回对模型更新的贡献。这种不可逆的设置可能会打破有关数据保护的规定,并增加数据抽取的风险。 为了解决这个问题,本文提出了联邦学习的一个新概念,叫做记忆消除。基于这个概念,我们提出了sysname,一个联邦学习框架,允许用户在训练模型中消除对私人数据的记忆。具体来说,sysname 中的每个用户都部署了一个可训练的虚拟梯度生成器。经过一系列的训练,生成器可以产生虚拟梯度来刺激机器学习模型的神经元,从而消除对特定数据的记忆。同时,我们证明 sysname 的附加存储消除服务并没有破坏联邦学习的一般流程或降低其安全性。

    03

    联邦学习怎样应用在推荐系统中?

    说起联邦学习,大家再熟悉不过了,由于其能在数据不移动的前提下协同训练一个全局共享的模型,迅速成为了人工智能安全领域的一个研究热点。推荐系统作为人工智能领域最振奋人心的应用之一,与联邦学习相结合的研究也越发受到工业界和学术界的关注。 最近,中国科学:信息科学 杂志最新综述《基于联邦学习的推荐系统》(以下简称“联邦推荐”)概述了一些联邦学习和推荐系统结合的研究工作,非常适合对联邦学习和推荐系统感兴趣的同学阅读。本文旨在帮助大家快速了解这篇综述,并给想入门联邦研究的同学推荐一些相关的论文。 需要说明的是,联邦推荐

    05
    领券