在对抗攻击场景下,攻击者通过对合法输入的微扰生成对抗样本(Adversarial Example, AE),并试图使用对抗样本使目标深度学习(DL)模型误分类。由于DL模型在对抗样本的攻击下较为脆弱,因此限制了深度学习应用于具有较高安全性要求的领域,如自动驾驶、人脸识别、恶意软件检测等。防守方通常希望增强模型对对抗样本的防御能力,同时又能最大限度地保证模型的分类性能。虽然学术界和工业界对对抗样本的研究逐渐深入,攻击和防御手段在不断更新,但是仍很难说明哪些攻击样本隐蔽性或可转移性更高,或者哪种防御方法更加有效通用。
机器之心报道 机器之心编辑部 ICLR 2018 大会的接收论文中,8 篇有关防御对抗样本的研究中,7 篇已经被攻破了——在大会开幕三个月之前。来自 MIT 和 UC Berkeley 的研究者定义了一种被称为「混淆梯度」(obfuscated gradients)的现象。在面对强大的基于优化的攻击之下,它可以实现对对抗样本的鲁棒性防御。这项研究引起了深度学习社区的讨论,GAN 提出者 Ian Goodfellow 也参与其中,并作了反驳。 GitHub 链接:https://github.com/anis
论文简介 这篇论文的名字为为「Adversarial Example Defenses: Ensembles of Weak Defenses are not Strong」,“防御对抗性样本:弱的防
在这个数字化时代,时间序列数据被广泛应用于各个领域,例如金融、医疗、电子商务等。对于这些领域的决策来说,准确的时间序列预测非常重要。因此,保护时间序列预测模型免受攻击是很多厂家所关注的问题。过去,许多研究人员关注于防御策略,例如使用统计方法、检测异常值等方法。但是,这些方法在防御效果上可能存在局限性。
随着计算机产业发展带来的计算性能与处理能力的大幅提高,人工智能在音视频识别、自然语言处理和博弈论等领域得到了广泛应用。在此背景下,确保人工智能的核心——深度学习算法具有可靠的安全性和鲁棒性至关重要。
AI科技评论按:近日,OpenAI发表最新研究,论述了AI安全领域的一大隐忧:“对抗样本”,它可以轻易地让机器学习系统产生误判,这会对AI的应用实践产生影响。在这篇由“GANs”之父Ian Goodfellow领衔撰写的文章里,OpenAI针对“对抗样本”进行了防御策略的实验,其中有两种方法效果显著,但也并不能解决根本问题。OpenAI表示设计出抵抗强大、具有适应性攻击者的防御策略,是非常重要的研究领域。本文原载于OpenAI Blog,由AI科技评论编译整理。 “对抗样本”是攻击者故意设计的,被用来输
今天看了 https://hackerone.com/reports/26647 有感。这个漏洞很漂亮,另外让我联想到很多之前自己挖过的漏洞和写过的程序,有感而发。
其中一个典型的安全问题是后门学习,它可以通过恶意操纵训练数据或控制训练过程,在模型中插入难以察觉的后门。
目前还没有人敢说能彻底防御DDoS。Web安全是一个大课题,在网络安全事件中,针对Web的攻击是最多的。DDoS就是流量攻击,最常见也是最难防御的。
📷 来源:机器之心 本文约2600字,建议阅读6分钟 本文介绍了一篇关于黑箱防御工作的研究论文,代码和模型均已开源,已被 ICLR 2022 接收为 spotlight paper。 今天介绍一篇密歇
选自arXiv 作者:Alex Lamb, Jonathan Binas, Anirudh Goyal, Dmitriy Serdyuk, Sandeep Subramanian, Ioannis Mitliagkas, Yoshua Bengio 机器之心编译 参与:Panda 在训练数据集上表现优良的深度模型在识别有细微差别的样本时可能会得到非常让人意外的结果。针对这类对抗样本的防御是人工智能安全研究方面重点关注的研究主题之一。近日,蒙特利尔学习算法研究院(MILA)提出了一种有助于提升深度网络在应对对
OpenAI研究员Ian Goodfellow等人今天发表文章,详细描述了机器学习模型面临的“对抗范例(adversarial examples)”攻击,以及目前已有的防御方式。 以下内容由量子位编译自OpenAI官方博客。 对抗范例(adversarial examples),是攻击者为了让机器学习模型产生错误而设计的输入数据,就像“机器产生了幻觉”。在这篇文章中,我们将展示对抗范例了如何通过不同媒介进行攻击,并讨论保护系统免受这种攻击难在何处。 在OpenAI,我们认为对抗范例是安全领域一个值得研究的
在网络安全领域,传统的被动防御技术越来越无法应对日新月异的网络安全风险,近年来,人们对新型防御的方案的需求愈发强烈,如:主动防御,动态防御,自动化防御等。近期,MITRE公司发布了一个基于主动防御的知识库MITRE Shield的介绍[3]。本文会对该知识库做简单介绍,并进一步探索该知识库应该如何应用于主动防御。
后门攻击旨在将隐藏后门嵌入深度神经网络(DNN)中,使被攻击模型在良性样本(benign samples)上表现良好,而如果隐藏的后门被攻击者定义的触发器(triggers)激活,其预测将被恶意更改。
香港中文大学(深圳)吴保元教授课题组和浙江大学秦湛教授课题组联合发表了一篇后门防御领域的文章,已顺利被ICLR2022接收。
机器之心专栏 作者:张益萌 本文是一篇关于黑箱防御工作的研究,代码和模型均已开源,论文已被 ICLR 2022 接收为 spotlight paper。 今天介绍一篇密歇根州立大学 (Michigan State University) 和 MIT-IBM AI 实验室的一篇关于黑箱防御工作的文章,本文被 ICLR 2022 接收为 spotlight paper, 代码和模型均已开源。该文作者受 Trustworthy ML Initiative 邀请,将会在美东时间 9 月 15 日中午 12 点对本篇
后门攻击的目标是通过修改训练数据或者控制训练过程等方法使得模型预测正确干净样本,但是对于带有后门的样本判断为目标标签。例如,后门攻击者给图片增加固定位置的白块(即中毒图片)并且修改图片的标签为目标标签。用这些中毒数据训练模型过后,模型就会判断带有特定白块的图片为目标标签(如下图所示)。
该篇是自定义View学习过程中做的简单下游戏,目前分了6篇,全是自定义的view实现的,如果有同学有好的优化方案,欢迎留言。
DeepRobust是基于PyTorch攻击和防御学习库,旨在建立一个全面且易于使用的平台来促进这一研究领域的发展。目前在图像域中包含10多种攻击算法和8种防御算法,图域中的9种攻击算法和4种防御算法。
本部分介绍网络防御能力搭建。同样的,部分内容一般企业不会涉及,作为参考,学习一下。
Gartner发布了关于移动目标防御(动态防御,MTD)的新研究,希望引起您的注意。他们的发现表明,为什么MTD是预防为主的网络安全战略的重要组成部分。同样,他们的预测也预示着MTD在不久的将来会被供应商和安全团队迅速采用。最重要的是,Gartner关于MTD的发现验证了Morphisec所肩负的使命:利用移动目标防御的力量来击败现代网络攻击,特别是那些以前没有见过的攻击,从而为IT和安全专家带来安心。
最近几年安全界关于对抗学习的研究如火如荼,对抗样本的生成技术发展迅速。使用不同的对抗攻击方法可以生成对抗样本,不同攻击方法的攻击效果也有所不同。 另外关于对抗样本攻击的防御方法,已经有不少学者提出了一些解决方案,不过防御效果上还有提升空间。下图是关于对抗学习经典的应用场景,攻击者利用对抗样本攻击方法对关于熊猫的图片进行微小的修改从而使深度学习图像识别模型失效,误以为图片中的是长臂猿。这种攻击手段已经在本文之前已经进行过讨论。
随着互联网的快速发展,HTTP代理爬虫已成为数据采集的重要工具。然而,随之而来的是恶意爬虫对网络安全和数据隐私的威胁。为了更好地保护网络环境和用户数据,我们进行了基于机器学习的HTTP代理爬虫识别与防御的研究。以增强对HTTP代理爬虫的识别和防御能力。
网络安全在外围和网络之间的多层保护中发挥作用,所有安全层都需要遵循特定的策略,只有经过授权的用户才能访问网络资源,并阻止未经授权的用户执行漏洞利用和进行恶意活动。
给网站添加一些特殊页面,如aaabbb.html, 并使用脚本自动读取访问日志(看看哪些ip访问过这个页面),筛选出反代服务器的IP并屏蔽之。 (防御强度:2)
过去的十年里,DDoS攻击是计算机科学领域中最“头疼”的问题之一。Gcore发现,DDoS攻击增速惊人,2021年DDoS攻击峰值流量为300Gbps,2022年增至650 Gbps,2023 年Q3-Q4季度增至1600 Gbps (1.6 Tbps)。企业如果没有采取足够的防御措施,就会在这场攻防之战中陷入被动。今天就来聊聊防御DDoS攻击的几大有效方法。
AI 科技评论按:自 Ian Goodfellow 等研究者发现了可以让图像分类器给出异常结果的「对抗性样本」(adversarial sample)以来,关于对抗性样本的研究越来越多。NIPS 2017 上 Ian Goodfellow 也牵头组织了 Adversarial Attacks and Defences(对抗攻击防御)竞赛,供研究人员、开发人员们在实际的攻防比拼中加深对对抗性样本现象和相关技术手段的理解。
DDoS攻击是现在最常见的一种网络攻击方式,主要通过大规模流量攻击目标服务器,导致服务器性能耗尽而崩溃。随着5G时代的到来,DDoS攻击的数量和规模都越来越大。攻击成本越来越低导致更多的不法分子去使用DDOS攻击竞争对手或敲诈勒索。今天墨者安全就来分享一下面对DDOS攻击该如何防御?常用的防御措施有以下三种:
昨天的文章中我们说了在域渗透中白银票据的利用,但是如何对其进行防御呢,如果没有看过白银票据利用的文章,请移步《域渗透 | 白银票据利用》
DDoS攻击是目前最常见的网络攻击方式之一。其见效快、成本低的特点,使它深受不法分子的喜爱。每39秒就会发生一次新的网络攻击,全球每天大约发生23000次DDoS攻击。对于未受保护的企业来说,每次DDoS攻击的平均成本为20万美元。可见部署DDoS防御产品的重要作用。本文带你了解防御DDoS攻击的几大有效方法,通过优势更显著的防御DDoS服务,真正解除威胁。
图模型因其强大的表示能力在现实中有着广泛的应用,如欺诈检测、生物医学、社交网络等。由于图结构不具有平移不变性,每一个节点的上下文结构有较大的差异,因此传统的深度学习模型就无法直接应用到图模型上。图神经网络(GNN)可以从图数据中提取相应特征,在尽可能的保证图结构特征的情况下把图数据映射到向量空间中。随着GNN的应用越来越广泛,其安全性也越来越被关注。比如说在信用评分系统中,欺诈者可以伪造与几个高信用客户的联系以逃避欺诈检测模型;垃圾邮件发送者可以轻松地创建虚假的关注者,向社交网络添加错误的信息,以增加推荐和传播重大新闻的机会,或是操控在线评论和产品网站。
安妮 夏乙 发自 凹非寺 量子位 出品 | 公众号 QbitAI 搞机器学习的这帮人在Twitter上又炸了。 起因是一名叫Anish Athalye的小哥率先“放出狠话”。 “对抗样本防御仍是一个未
近年来,勒索软件攻击经历了大流行加速的演变,而防御系统则难以跟上。勒索软件的第一阶段已经让位于新的、不同的、更好的和更坏的东西。为了帮助理解这一演变,Morphisec赞助了一份来自SANS的报告,探索勒索软件防御的现状。它研究了潜伏在攻击版图中的最新对手趋势,以及对它们最有力的防御。
自网络诞生以来,攻击威胁事件层出不穷,网络攻防对抗已成为信息时代背景下的无硝烟战争。然而,传统的网络防御技术如防火墙、入侵检测技术等都是一种敌暗我明的被动防御,难以有效应对攻击者随时随地发起的无处不在的攻击和威胁。蜜罐技术的出现改变了这种被动态势,它通过吸引、诱骗攻击者,研究学习攻击者的攻击目的和攻击手段,从而延缓乃至阻止攻击破坏行为的发生,有效保护真实服务资源。 国际蜜罐技术研究组织Honeynet Project的创始人Lance Spitzner给出了蜜罐的权威定义:蜜罐是一种安全资源,其价值在于被扫描、攻击和攻陷。蜜罐并不向外界用户提供任何服务,所有进出蜜罐的网络流量都是非法的,都可能预示着一次扫描和攻击,蜜罐的核心价值在于对这些非法活动进行监视、检测和分析。
代码:https://gist.github.com/Lyken17/91b81526a8245a028d4f85ccc9191884
本次报告介绍了深度学习安全性和可信性的关键问题,从对抗攻击、对抗防御和攻防平台三个方面介绍了目前的研究现状,同时带来了研究团队在这些关键问题上的最新研究成果,最后对发展安全可靠、鲁棒可理解的第三代人工智能进行了展望。
设计开发一套安全可靠的系统,除了需要有稳定的功能支撑外还要设计开发能够抵御各种攻击者的攻击,并且能保证受到攻击者攻击后能够有应急响应方案确保业务正常运行。
近年来DDoS攻击频频发生,很多企业都不知如何防御DDoS攻击,同时基于DDoS攻击的勒索事件也在上演,攻击者要求企业支付勒索金额以免受攻击。至此,DDoS攻击的危害已从使网络瘫痪造成业务损失,演变成了赤裸裸的金钱勒索,只能选择被动接受。
由于难以被服务器端的防御方法识别,Edge-case PGD攻击目前已经给联邦学习带来巨大的威胁。
深度神经网络(DNNs)已广泛应用于图像分类、文本生成、音频识别和图数据分析等各个领域。然而,最近的研究表明,DNN很容易受到对抗性攻击。虽然在图像和自然语言处理等领域已经有了一些关于对抗性攻防策略的研究,但由于图数据的表示结构,仍然很难将学到的知识直接转化为图数据。鉴于图分析的重要性,在过去几年里,越来越多的研究试图分析机器学习模型对图数据的鲁棒性。然而,现有的研究考虑了图数据上的对抗行为,通常只关注特定类型的攻击,并带有特定的假设。此外,每一项工作都提出了自己的数学公式,这使得不同方法之间的比较很困难。因此,本综述旨在提供100多篇关于图数据对抗攻防策略的论文的总体概况,并建立一个涵盖大多数图对抗学习模型的统一表述。此外,我们还比较了不同的图攻击和防御及其贡献和局限性,并总结了评估指标、数据集和未来趋势。我们希望本次综述能够帮助填补文献空白,促进这一有前景的新领域的进一步发展。
来源 | AI科技评论 作者 | 高云河 编辑 | 磐石 出品 | 磐创AI技术团队 【介绍】:自 Ian Goodfellow 等研究者发现了可以让图像分类器给出异常结果的「对抗性样本」(adversarial sample)以来,关于对抗性样本的研究越来越多。NIPS 2017 上 Ian Goodfellow 也牵头组织了 Adversarial Attacks and Defences(对抗攻击防御)竞赛,供研究人员、开发人员们在实际的攻防比拼中加深对对抗性样本现象和相关技术手段的理解。 在比赛结束
本次比赛总结由谷歌大脑、清华大学以及其它参与研究人员们联合撰写,为你介绍NIPS 2017 对抗样本攻防比赛的情况。 自 Ian Goodfellow 等研究者发现了可以让图像分类器给出异常结果的"对抗性样本"(adversarial sample)以来,关于对抗性样本的研究越来越多。NIPS 2017 上 Ian Goodfellow 也牵头组织了 Adversarial Attacks and Defences(对抗攻击防御)竞赛,供研究人员、开发人员们在实际的攻防比拼中加深对对抗性样本现象和相关技术
XSS攻击:跨站脚本攻击(Cross Site Scripting),为不和层叠样式表(Cascading Style Sheets, CSS)的缩写混淆,故将跨站脚本攻击缩写为XSS。 xss攻
弱密码一直是广大安全人员的痛。web管理页面、公网服务连接密码(如邮件、sql等)、内网终端、服务器登录等都是弱密码的重灾区。一旦被人利用成功,损失巨大。
UDP是无连接的协议,因此无法通过源认证的方法防御UDP Flood攻击。如果UDP业务流量需要通过TCP业务流量认证或控制,则当UDP业务受到攻击时,对关联的TCP业务强制启动防御,用此TCP防御产生的白名单决定同一源的UDP报文是丢弃还是转发。
当下在混合云、多云环境中,不论任何人、任何部门以及组织都依赖互联网进行运作,分布式拒绝服务(DDoS)攻击是正在面临的最大威胁之一。当DDoS攻击汹涌而至,缺失详细的保护预案,企业很可能会陷入数小时或数天的混乱局面,因此制定全面的DDoS保护计划势在必行。本文从DDoS安全的角度出发,分享防御DDoS攻击的几大有效方法,从而助力企业提升网络安全防御的有效性。
0×01前言 DDOS攻击是每个需要对外提供服务的公司最大的威胁之一,尤其是新兴的互联网公司与电信运行商对此尤其看重,每个公司的网络安全组都必须具备一定的防御DDOS攻击的能力,不仅仅是会使用各个品牌的安全设备,更重要的是要有防御DDOS攻击的明确思路以及正确的方法,这样才能保证自己的公司不被黑客破坏、勒索。 任何需要通过网络提供服务的业务系统,不论是处于经济原因还是其他方面,都应该对DDoS攻击防护的投资进行考虑。大型企业、政府组织以及服务提供商都需要保护其基础业务系统(包括Web、DNS、Mail、交换
王者荣耀是一款5v5的团队竞技游戏,在一局游戏当中,必要的系统提示有利于玩家对实时的战况有更好地把握。比如,当游戏开局时,系统会提示“敌军还有5秒到达战场,请做好准备”;当有英雄被击杀时或者敌我双方防御塔被摧毁时,我方队友和敌方收到的系统提示是不同的。 于是,此类问题就可以用观察者模式很好的实现当防御塔被摧毁后敌我双方英雄分别收到不同的消息的结果。这里再简单描述一下这个具体问题:当敌方高低防御塔被我方娜可露露摧毁时,我方全部队友收到系统提示消息“(娜可露露)摧毁敌方防御塔”,而敌方英雄收到的则是“(娜可露露)摧毁我方防御塔”。
Arkose Labs 成立于2015年,公司位于旧金山,主要为全球大型机构提供网络防欺诈服务,客户行业包括电商、旅游、金融、社交媒体与网络游戏等。该公司通过极具创新性的全球遥感技术、用户行为风险评估技术和专利保护服务,帮助用户解决网络欺诈难题,规避每年上百万的经济损失。Arkose Labs号称能够在不影响用户体验和业务开展的情况下,可事先阻断欺诈和滥用行为。
新型网络安全漏洞伴随着5G、AI、云计算、大数据等新技术的应用而出现,相较于传统漏洞,新型漏洞藏匿于技术底层,易造成全局性影响且完全修复的难度大,一旦被恶意利用,成为网络攻击源,将带来严重后果。
领取专属 10元无门槛券
手把手带您无忧上云