腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
MyBlog
专栏作者
举报
81
文章
64444
阅读量
12
订阅数
订阅专栏
申请加入专栏
全部文章(81)
其他(36)
安全(11)
网络安全(10)
深度学习(8)
神经网络(5)
机器学习(4)
编程算法(4)
人工智能(3)
编码(3)
数据(3)
网络(3)
对象存储(2)
NLP 服务(2)
python(2)
腾讯云测试服务(2)
图像识别(2)
腾讯云开发者社区(2)
image(2)
self(2)
集合(2)
算法(2)
优化(2)
人脸识别(1)
html(1)
android(1)
sql(1)
access(1)
git(1)
github(1)
apt-get(1)
mapreduce(1)
批量计算(1)
开源(1)
分布式(1)
自动化(1)
kernel(1)
数据结构(1)
nat(1)
联邦学习(1)
block(1)
copy(1)
external(1)
formula(1)
gensim(1)
global(1)
local(1)
mask(1)
nlp(1)
pipeline(1)
rgb(1)
size(1)
using(1)
word2vec(1)
变量(1)
测试(1)
递归(1)
工作(1)
基础(1)
连接(1)
模型(1)
视频编码(1)
性能(1)
搜索文章
搜索
搜索
关闭
针对语义分割的真实世界的对抗样本攻击
网络安全
安全
来自于论文"Evaluating the Robustness of Semantic Segmentation for Autonomous Driving against Real-World Adversarial Patch Attacks"
Mezereon
2022-05-23
510
0
联邦学习下的数据逆向攻击 -- GradInversion
安全
网络安全
批量计算
联邦学习
这一次给大家介绍一个攻击,是NVIDIA的一个工作,最近被CVPR2021所收取。
Mezereon
2021-05-17
1.4K
0
通过人工大脑刺激来检测神经网络中的后门
网络安全
安全
这一次主要给大家介绍一篇CCS19的工作,“ABS: Scanning Neural Networks for Back-doors by Artificial Brain Stimulation”。
Mezereon
2021-04-27
649
0
语义上的对抗样本 -- SemanticAdv
网络安全
安全
机器学习
神经网络
深度学习
这次介绍的是ECCV2020的一篇文章,SemanticAdv: Generating Adversarial Examples via Attribute-conditioned Image Editing
Mezereon
2021-04-19
658
0
如何躲避针对后门攻击的检测
网络安全
安全
这次介绍的是一篇来自于EuroS&P-2020的文章,"Bypassing Backdoor Detection Algorithms in Deep Learning"
Mezereon
2021-04-09
638
0
暴力的黑盒对抗样本攻击 -- ZOO
网络安全
安全
这次来介绍一篇CCS Workshop 2017的工作,"ZOO: Zeroth Order Optimization Based Black-box Attacks to Deep Neural Networks without Training Substitute Models"
Mezereon
2021-04-09
1.5K
0
针对后门攻击的防御手段之Neural Cleanse
网络安全
安全
当模型接收到带有触发器的输入,便会导致对应的触发结果。 并且,一但没有触发器,模型的表现和正常的模型相似。
Mezereon
2021-04-02
1K
0
如何用一束激光欺骗神经网络
网络安全
安全
腾讯云开发者社区
来自于CVPR2021的一篇文章"Adversarial Laser Beam: Effective Physical-World Attack to DNNs in a Blink"
Mezereon
2021-03-27
483
0
浅谈深度学习模型中的后门
安全
网络安全
深度学习
关于深度学习安全方面,粗浅地可以分为两大块:对抗样本(Adversarial Example)以及后门(Backdoor)
Mezereon
2021-03-23
1.3K
0
浅谈深度学习中的对抗样本及其生成方法
网络安全
安全
深度学习
深度学习模型被广泛应用到各种领域,像是图像分类,自然语言处理,自动驾驶等。以ResNet,VGG为代表的一系列深度网络在这些领域上都取得了不错的效果,甚至超过人类的水平。然而,Szegedy等人在2014年的工作(Intriguing properties of neural networks)揭示了深度网络的脆弱性(vulnerability),即在输入上做一些微小的扰动(perturbation)就可以令一个训练好的模型输出错误的结果,以下面这张经典的熊猫图为例:
Mezereon
2020-12-29
1.4K
0
When Does Machine Learning FAIL? Generalized Transferability for Evasion and Poisoning Attacks论文笔记
安全
该论文主要是介绍了一个FAIL模型, 即一个通用框架用来分析针对机器学习系统的真实攻击, 同时也提出了一种有目标的投毒攻击, 称作StingRay, 使得该攻击能击溃现存的防御, 通过观察FAIL的维度, 发现现存的有目标的逃逸攻击(Evasion Attack)中的一种新的迁移特性以及一种能够对有目标的投毒攻击提供弹性的特性, 扩展了先前对于攻击迁移特性的研究并针对投毒攻击的样本给出一些结论.
Mezereon
2019-02-25
847
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档