首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

学会忘记: 联邦学习法中的用户记忆消除(CS LG)

学会忘记:联邦学习中的用户级记忆消除是一种分散性的机器学习技术,在研究领域和现实市场都引起了广泛的关注。 然而,目前保护隐私的联邦学习方案只是为用户提供了一个安全的方式来贡献他们的私有数据,而没有留下一个方法来收回对模型更新的贡献。这种不可逆的设置可能会打破有关数据保护的规定,并增加数据抽取的风险。 为了解决这个问题,本文提出了联邦学习的一个新概念,叫做记忆消除。基于这个概念,我们提出了sysname,一个联邦学习框架,允许用户在训练模型中消除对私人数据的记忆。具体来说,sysname 中的每个用户都部署了一个可训练的虚拟梯度生成器。经过一系列的训练,生成器可以产生虚拟梯度来刺激机器学习模型的神经元,从而消除对特定数据的记忆。同时,我们证明 sysname 的附加存储消除服务并没有破坏联邦学习的一般流程或降低其安全性。

03
您找到你想要的搜索结果了吗?
是的
没有找到

【完结】林轩田机器学习技法终章

我们在本系列课程中介绍的第一个特征提取的方法就是kernel。Kernel运算将特征转换和计算内积这两个步骤合二为一,提高了计算效率。我们介绍过的kernel有:Polynormial Kernel、Gaussian Kernel、Stump Kernel等。另外,我们可以将不同的kernels相加(transform union)或者相乘(transform combination),得到不同的kernels的结合形式,让模型更加复杂。值得一提的是,要成为kernel,必须满足Mercer Condition。不同的kernel可以搭配不同的kernel模型,比如:SVM、SVR和probabilistic SVM等,还包括一些不太常用的模型:kernel ridge regression、kernel logistic regression。使用这些kernel模型就可以将线性模型扩展到非线性模型,kernel就是实现一种特征转换,从而能够处理非常复杂的非线性模型。顺便提一下,因为PCA、k-Means等算法都包含了内积运算,所以它们都对应有相应的kernel版本。

02
领券