首页
学习
活动
专区
工具
TVP
发布

相约机器人

专栏作者
664
文章
1036366
阅读量
52
订阅数
PyTorch中神经网络的对抗性攻击和防御
深度学习和神经网络的兴起为现代社会带来了各种机会和应用,例如对象检测和文本转语音。然而,尽管看似准确性很高,但神经网络(以及几乎所有机器学习模型)实际上都可能受到数据(即对抗性示例)的困扰,而这些数据是从原始训练样本中进行的非常轻微的操纵。实际上,过去的研究表明,只要您知道更改数据的“正确”方法,就可以迫使您的网络在数据上表现不佳,而这些数据在肉眼看来似乎并没有什么不同!这些对数据进行有意操纵以降低模型精度的方法称为对抗性攻击,而攻击与防御之战是机器学习领域中持续流行的研究主题。
代码医生工作室
2020-09-14
1.9K0
全球首例,Adversarial T-shirt让你在AI目标检测系统中隐身
由美国东北大学林雪研究组,MIT-IBM Watson AI Lab 和 MIT 联合研发的这款基于对抗样本设计的 T-shirt (adversarial T-shirt),让大家对当下深度神经网络的现实安全意义引发更深入的探讨。目前该文章已经被 ECCV 2020 会议收录为 spotlight paper(焦点文章)。
代码医生工作室
2020-07-09
4960
暗网世界,黑客可能用AI再造了一个“你”
今年2月,卡巴斯基实验室的欺诈侦查小组捣毁了一个名为“创世纪”(Genesis)的暗网市场。该市场出售“数字身份”(互联网用户的电子身份信息),每条信息起价5美元,最高可达200美元。
代码医生工作室
2019-06-21
7170
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档