首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

隐私计算:用“联邦学习”实现数据可用不可见

2016年,谷歌AI在一篇技术博客文章中首次引入“联邦学习”的概念,随后这项技术开始在AI领域受到关注。

所谓“联邦学习”,就是允许多个参与者在不共享数据的情况下,构建一个通用强大的机器学习模型。

简单来说就是,通过“数据不动模型动”的方法,来解决如数据隐私、数据安全、数据访问权限和对异构数据访问等问题。此后“联邦学习”逐渐受到关注,推动了整个隐私计算技术架构的完善。

2012年,王爽在SCI期刊上发表了全球第一篇在线医疗联邦学习论文。这篇论文,也成为日后他在医疗隐私计算领域学术研究和工作方向的源头。

王爽发现,用“联邦学习”等手段从技术层面解决这个问题,可以实现“数据可用不可见”,进而大大提升信息化技术在医疗中的可用性。比如过去医院在治疗罕见病时往往受限于单中心数据量不够等问题,在解决了数据隐私问题后,就可以整合全行业数据为病人寻找最有效的治疗方案。“原来需要数周寻找治疗方案,现在可能会缩短至1天甚至更短。”王爽说。

当掌握隐私计算技术的极客跟医院的医生频繁交流后,隐私计算的技术也有了飞速迭代,“在技术性能上,每年都会有10倍的提升。”一个很明显的感受是,此前解决一个多方联合建模的问题需要1个小时,现在只需要1分钟。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20211014A06P5U00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券