前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >英特尔开源HE-Transformer,允许AI模型对加密数据进行操作

英特尔开源HE-Transformer,允许AI模型对加密数据进行操作

作者头像
AiTechYun
修改2018-12-24 15:38:43
1.1K0
修改2018-12-24 15:38:43
举报
文章被收录于专栏:ATYUN订阅号ATYUN订阅号

编译:chux

出品:ATYUN订阅号

数据集是AI的生命线。这对处理个人身份信息(例如医疗保健)的行业构成了挑战,但是对于匿名和加密模型训练方法方面,已经取得了令人鼓舞的进展。

今天,在加拿大蒙特利尔召开的NeurIPS 2018会议上,英特尔宣布开源HE-Transformer,这是一种允许AI系统对敏感数据进行操作的工具。它作为英特尔神经网络编译器nGraph的后端,基于简单加密算法库(SEAL),这个加密库是微软研究院于本周开源的。

两家公司将HE-Transformer描述为“隐私保护”机器学习的一个例子。

英特尔研究科学家Fabian Boemer和英特尔研究高级主管Casimir Wierzynski在一篇博客文章中写道,“HE允许对加密数据进行计算。当应用于机器学习时,此功能允许数据所有者获得有价值的见解,而不会暴露基础数据;它也可以使模型所有者通过加密形式部署,从而保护他们的模型。”

HE-Transformer中的“HE”是同态加密的缩写,它支持使用算法对加密的密文明文(文件内容)进行计算。它生成一个加密的结果,当解密时,该结果与在未加密文本上执行的操作的结果完全匹配。

HE是一项相对较新的技术,IBM研究员Craig Gentry在2009年开发了第一个完全的HE方案。正如Boemer和Wierzynski所说,设计使用它的AI模型不仅需要机器学习,还需要加密和软件工程方面的专业知识。

HE-Transformer可助力开发过程,通过提供可应用于开源框架(如谷歌的TensorFlow,Facebook的PyTorch和MXNet)上的神经网络的抽象层。它有效地消除了将模型手动集成到HE加密库中的需要。

HE-Transformer结合了Cheon-Kim-Kim-Song(CKKS)加密方案以及加法和乘法运算,例如加法,常数,卷积,点,乘法,否定,填充,矩阵变维,结果和减法。此外,它还支持HE特定的技术,如明文值旁路,SIMD封装,OpenMP并行化和明文操作。

由于这些优化,英特尔宣称,HE-Transformer在加密网络学习神经网络上提供了最先进的性能,可以使用TensorFlow中训练的浮点模型应用于加密数据。

微软研究院首席研究员兼密码学研究经理Kristin Lauter表示,“我们很高兴能与英特尔合作,为更广泛的数据科学家和隐私保护机器学习系统开发人员带来同态加密。”

目前,HE-Transformer直接与TensorFlow的nGraph编译器和运行时集成,并且即将支持PyTorch。此外,能够将神经网络导出到ONXX的深度学习框架,例如PyTorch,CNTK和MXNet,可以通过将模型导入ONXX中的nGraph并以序列化格式导出它们以便使用。

Boemer和Wierzynski表示,未来版本的HE-Transformer将支持更多种类的神经网络模型。“该领域的最新进展现已使HE支持深度学习。研究人员可以利用TensorFlow快速开发新的HE深度学习拓扑。”

代码:github.com/NervanaSystems/he-transformer

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-12-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 ATYUN订阅号 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档