本文介绍NeurIPS 2020接收论文《Learning Black-Box Attackers with Transferable Priors and Query Feedback》。
【导读】专知内容组整理了最近生成对抗网络相关文章,为大家进行介绍,欢迎查看! 1. Semi-supervised FusedGAN for Conditional Image Generation(基于半监督FusedGAN的条件图像生成) ---- ---- 作者:Navaneeth Bodla,Gang Hua,Rama Chellappa 摘要:We present FusedGAN, a deep network for conditional image synthesis with contr
本文汇总了ECCV 2020上部分对抗相关论文,后续公众号会随缘对一些paper做解读。感兴趣的同学,可先自行根据标题,搜索对应链接(有些paper可能未公布)。值得注意的是,这里的对抗包括了生成对抗GAN、以及对抗攻击/防御,两者概念上是迥然的。
来源:知乎-Qs.Zhang张拳石 https://zhuanlan.zhihu.com/p/31365150 ▌前言 ---- 关于神经网络内部的知识表达,深究下去是个很复杂的问题,我很难给出一个面面俱到的答案。所以在这篇知乎里,我从自己两篇AAAI 2018的论文说起,只是希望提出问题,抛砖引玉。 文题中的“黑”与“白”指的是神经网络的black-box的知识表达和我希望的white-box的可解释性模型。作为博后研究员,我在UCLA带领几个学生探索一种语义层面可解释的神经网络特征表达,或者把black
欢迎来到《每周CV论文推荐》。在这个专栏里,还是本着有三AI一贯的原则,专注于让大家能够系统性完成学习,所以我们推荐的文章也必定是同一主题的。
近日,由北京大学崔斌教授数据与智能实验室( Data and Intelligence Research LAB, DAIR)开发的通用黑盒优化系统 OpenBox 开源发布!
摘要:我们考虑稳健的离散最小化问题,其中不确定性由目标中的凸集定义。 我们展示了如何使用非稳健性问题的线性规划松弛的完整性间隙验证器来推导出稳健版本的近似算法。
如今一些深度神经网络对于一些对抗性样本(Adversarial sample)是弱势的, 对抗性样本就是指我们对输入进行特定的改变, 通过原有的学习算法最终导致整个网络内部出现误差, 这属于攻击的一种, 然而, 现在的攻击都是要么计算代价特别大, 要么需要对目标的模型和数据集有大量的先验知识, 因此, 这些方法在实际上其实都不实用. 该文章主要介绍了一种程序性噪声, 利用该噪声, 使得构造实用的低计算量的黑盒攻击成为了可能, 对抗鲁棒性的神经网络结构, 比如Inception v3和Inception ResNet v2 在ImageNet数据集上. 该文章所提出来的攻击实现了低尝试次数下成功造成错分类. 这种攻击形式揭露了神经网络对于Perlin噪声的脆弱性, Perlin噪声是一种程序性噪声(Procedural Noise), 一般用于生成真实的纹理, 使用Perlin噪声可以实现对所有的分类器都实现top1 至少90%的错误率, 更加令人担忧的是, 该文显示出大多数的Perlin噪声是具有"普适性"(Universal)的, 在对抗样本中, 数据集的大部分, 使用简单的扰动使得高达70%的图片被错误分类
英国工程与物理科学研究理事会(EPSRC)发布了《类人计算战略路线图》,明确了类人计算(Human-Like Computing,HLC)的概念、研究动机、研究需求、研究目标与范围等。 类人计算是指使机器具有类似人类的感知与推理和学习能力、支持与人类协作和沟通的计算技术。类人计算系统将通过生物模型来形成,而不仅仅是改进的人工智能或机器学习系统。HLC系统将以类似人类的方式运行,无需人工智能和机器学习系统所需的海量数据资源,且具有与人类交流的能力。 HLC的研究动机包括:实现人类机器之间更好的沟通和协作;通过
南洋理工大学计算机系和米兰理工数据挖掘研究组的科学家发现,虽然公众情绪已经被认为是股市预测的关键因素,但近十年来在利用公共情绪来解决资产配置问题的理论方面,学术界几乎没有什么进展。他们在论文中提出了一种可信赖和可解释的学习架构来生成市场观点,并且和其他的基线资产配置策略进行了比较。回测结果表明模拟盘在特定风险水平下的盈利能力提高了5%-10%。
CVPR2022论文和代码整理:https://github.com/DWCTOD/CVPR2022-Papers-with-Code-Demo
这次来介绍一篇CCS Workshop 2017的工作,"ZOO: Zeroth Order Optimization Based Black-box Attacks to Deep Neural Networks without Training Substitute Models"
功能测试 就是对产品的各功能进行验证,根据功能测试用例,逐项测试,检查产品是否达到用户要求的功能。Functionaltesting(功能测试),也称为behavioral testing(行为测试)、黑盒测试或数据驱动测试 黑盒测试(Black-box Testing,又称为功能测试或数据驱动测试)是把测试对象看作一个黑盒子。利用黑盒测试法进行动态测试时,需要测试软件产品的功能,不需测试软件产品的内部结构和处理过程。
第28届SIGKDD会议将于8月14日至18日在华盛顿举行。据统计,今年共有1695篇有效投稿,其中254篇论文被接收,接收率为14.98%,相比KDD2021的接收率15.44%有所下降。其中,涉及到的推荐系统相关的论文共24篇(本次只整理了Research Track相关论文,对于Applied Data Science Track读者可自行前往下文链接查看)。整理不易,欢迎小手点个在看/分享。
本文主要从基于日志、基于trace和基于监控指标这三个方面,初步罗列了微服务架构的异常检测和根因定位的相关论文。
来源:专知本文为书籍介绍,建议阅读5分钟读完本书后,你将使用关键的强化学习算法来克服现实应用中的挑战,并成为强化学习研究社区的一员。 强化学习(RL)是人工智能的一个流行和有前途的分支,它涉及建立更智能的模型和智能体,这些模型和智能体可以根据不断变化的需求自动确定理想的行为。本书将帮助你掌握RL算法,并在构建自学习智能体时理解它们的实现。 从介绍强化学习环境中工作所需的工具、库和设置开始,本书涵盖了强化学习的构建模块,并深入研究了基于值的方法,如Q-learning和SARSA算法的应用。您将学习如何使用
【新智元导读】《机器学习》作者、南京大学教授周志华在本文中,针对当前机器学习环境适应低、数据共享难等局限,提出新概念 learnware(学件)。Learnware 具有 reusable(可重用)、evolvable(可演进)、comprehensible(可了解) 三大特点,如若能得以实现,强大的机器学习模型也能用小数据训练,数据保密问题也能得以缓解,更多终端用户都能像专家一样使用机器学习技术,并最终形成一个 learnware 市场。 Zhi-Hua Zhou is a professor at th
允中 整理编译 量子位 报道 | 公众号 QbitAI 8月6日,第34届国际机器学习大会(ICML 2017)已在悉尼拉开帷幕。 其中最受关注的论文奖项已公布。 据主办方消息,ICML2017共评审
今天想谈的问题是:什么是贝叶斯优化/Bayesian Optimization,基本用法是什么?
OpenAI研究员Ian Goodfellow等人今天发表文章,详细描述了机器学习模型面临的“对抗范例(adversarial examples)”攻击,以及目前已有的防御方式。 以下内容由量子位编译自OpenAI官方博客。 对抗范例(adversarial examples),是攻击者为了让机器学习模型产生错误而设计的输入数据,就像“机器产生了幻觉”。在这篇文章中,我们将展示对抗范例了如何通过不同媒介进行攻击,并讨论保护系统免受这种攻击难在何处。 在OpenAI,我们认为对抗范例是安全领域一个值得研究的
导语:按照惯例,主推文只能推送内容相关的东西,但是今天同日推文里有一个很有趣的文章,大家有兴趣的不妨移步去一探究竟! AI科技评论按:作者杨军,从事大规模机器学习系统研发及应用相关工作。本文整理自知乎,已获作者授权。 本文将分享一些自己关于深度学习模型调试技巧的总结思考(以CNN为主)。 最近因为一些需要,参与了一些CNN建模调参的工作,出于个人习性,我并不习惯于通过单纯的trial-and-error的方式来调试经常给人以”black-box”印象的Deep Learning模型。所以在工作推进过程中,
本文将分享一些自己关于深度学习模型调试技巧的总结思考(以CNN为主)。 最近因为一些需要,参与了一些CNN建模调参的工作,出于个人习性,我并不习惯于通过单纯的trial-and-error的方式来调试经常给人以”black-box”印象的Deep Learning模型。所以在工作推进过程中,花了一些时间去关注了深度学习模型调试以及可视化的资料(可视化与模型调试存在着极强的联系,所以在后面我并没有对这两者加以区分),这篇文章也算是这些工作的一个阶段性总结。 这里总结的内容,对于模型高手来说,应该说都是基本的k
AI科技评论按:作者杨军,从事大规模机器学习系统研发及应用相关工作。本文整理自知乎,已获作者授权。 本文将分享一些自己关于深度学习模型调试技巧的总结思考(以CNN为主)。 最近因为一些需要,参与了一些CNN建模调参的工作,出于个人习性,我并不习惯于通过单纯的trial-and-error的方式来调试经常给人以”black-box”印象的Deep Learning模型。所以在工作推进过程中,花了一些时间去关注了深度学习模型调试以及可视化的资料(可视化与模型调试存在着极强的联系,所以在后面我并没有对这两者加以区
标题:Simulating Unknown Target Models for Query-Efficient Black-box Attacks
最近因为一些需要,参与了一些CNN建模调参的工作,出于个人习性,我并不习惯于通过单纯的trial-and-error的方式来调试经常给人以”black-box”印象的Deep Learning模型,所以在工作推进过程中,花了一些时间去关注了深度学习模型调试以及可视化的资料(可视化与模型调试存在着极强的联系,所以在后面我并没有对这两者加以区分),这篇文章也算是这些工作的一个阶段性总结。 这里总结的内容,对于模型高手来说,应该说都是基本的know-how了。 我本人是计算机体系结构专业出身,中途转行做算法策略,所以实际上我倒是在大规模机器学习系统的开发建设以及训练加速方面有更大的兴趣和关注。不过机器学习系统这个领域跟常规系统基础设施(比如Redis/LevelDB以及一些分布式计算的基础设施等)还有所区别,虽然也可以说是一种基础设施,但是它跟跑在这个基础设施上的业务问题有着更强且直接的联系,所以我也会花费一定的精力来关注数据、业务建模的技术进展和实际问题场景。 说得通俗一些,对自己服务的业务理解得更清晰,才可能设计开发出更好的算法基础设施。 另外在进入文章主体之前想声明的是,这篇文章对于Deep Learning的入门者参考价值会更高,对于Deep Learning老手,只期望能聊作帮助大家技术总结的一个余闲读物而已。 文章的主要内容源于Stanford CS231n Convolutional Neural Networks for Visual Recognition课程[1]里介绍的一些通过可视化手段,调试理解CNN网络的技巧,在[1]的基础上我作了一些沿展阅读,算是把[1]的内容进一步丰富系统化了一下。限于时间精力,我也没有能够把里面提到的所有调试技巧全部进行尝试,不过在整理这篇文章的时候,我还是参考了不止一处文献,也结合之前以及最近跟一些朋友的技术交流沟通,对这些方法的有效性我还是有着很强的confidence。 1.Visualize Layer Activations 通过将神经网络隐藏层的激活神经元以矩阵的形式可视化出来,能够让我们看到一些有趣的insights。 在[8]的头部,嵌入了一个web-based的CNN网络的demo,可以看到每个layer activation的可视化效果。
一直在学习机器学习的项目;学的断断续续。近期需要完成一些数据建模与分析,将机器学习重新整理了一遍。这篇文章主要是介绍R数据科学中,构建机器学习模型的流程。为了更适合无基础的人快速了解整个流程框架,本文省去机器学习模型的原理及公式部分,如果需要了解,请戳 Here 。
这篇文章为深度学习列出了以下十大挑战。当然,有些人不屑于这些思考,因为以目前的方法论而言,很多问题是无解的(tricky的解法不算),故而人们认为这就是深度学习必要的代价,从而可以忽略其存在。我认为,做研究不仅仅是眼前的论文,更要有诗和远方。推动学科边界的延伸,才是科研根本的意义。
对抗样本是指攻击者故意设计以导致机器学习模型出错的输入样本;他们对机器来说就像是视觉幻觉一样。在本篇博文中,我们将向您展示对抗样本在不同介质中的运作原理,也将讨论为何系统难以防御它们。 在 OpenAI,我们认为对抗样本是研究安全性的一个好方面因为它代表着人工智能安全性上一个能在短期内得以解决的具体问题,由于解决对抗样本是如此之难,需要严肃认真的研究工作。(尽管为了达到我们建立安全、广泛分布的人工智能的目标,我们还需要研究机器学习安全性的许多方面。) 为了弄清楚对抗样本的真实面目,请思索一下《解释并驾驭对
选自darkon 机器之心编译 参与:黄小天 由于难以理解,深度学习经常被称为黑箱。有鉴于此,Neosapience 开发了开源工具包 Darkon,它可以更好地理解深度学习模型,进而调试故障,解释决
REcollapse是一款功能强大的黑盒正则式模糊化辅助工具,该工具可以帮助广大研究人员绕过验证并发现Web应用程序中的常规安全问题。
AI科技评论按:近日,OpenAI发表最新研究,论述了AI安全领域的一大隐忧:“对抗样本”,它可以轻易地让机器学习系统产生误判,这会对AI的应用实践产生影响。在这篇由“GANs”之父Ian Goodfellow领衔撰写的文章里,OpenAI针对“对抗样本”进行了防御策略的实验,其中有两种方法效果显著,但也并不能解决根本问题。OpenAI表示设计出抵抗强大、具有适应性攻击者的防御策略,是非常重要的研究领域。本文原载于OpenAI Blog,由AI科技评论编译整理。 “对抗样本”是攻击者故意设计的,被用来输
也就是说,基类的友元不是派生类的友元,如果想让派生类也可以使用这个函数,就需要在派生类的内部声明这个友元函数,否则访问不了派生类的成员。
https://dzone.com/articles/how-to-test-ai-models-an-introduction-guide-for-qa-1
欢迎大家来到图像分类专栏,深度学习分类模型虽然性能强大,但是也常常会因为受到小的干扰而性能崩溃,对抗攻击就是专门研究如何提高网络模型鲁棒性的方法,本文简要介绍相关内容。
tags: 贝叶斯优化,Bayesian Optimization,hyperparameters optimization,Bayes
近来发现很多刚入行的朋友在后台提问,有些问题,是由于对软件测试还没有一个正确的认识引起的。
机器之心 & ArXiv Weekly Radiostation 参与:杜伟、楚航、罗若天 本周主要论文包括Bengio 等人用 GFlowNets 统一生成模型;清华 & Meta 提出 HorNet,用递归门控卷积进行高阶空间相互作用。 目录 Unifying Generative Models with GFlowNets Transformers in Remote Sensing: A Survey Efficient Methods for Natural Language Processing
2019年2月,波兰政府对银行法进行了修订,赋予客户在做出信贷拒绝时获得解释的权利。这是在欧盟实施GDPR的直接后果之一。这意味着,如果决策过程是自动的,银行需要能够解释为什么不发放贷款。
安妮 编译整理 量子位 出品 | 公众号 QbitAI 这是什么? 熟悉枪械的盆友可能一眼就认出这是步枪,即使对枪种类不熟悉的同学也能认出这最可能是枪。 但……这道题对谷歌Cloud Vision A
一种方案是,人向模型对齐。于是有了 「Prompt工程师」这一岗位,专门撰写适配 LLM 的 Prompt,从而让模型能够更好地生成内容。
机器之心 & ArXiv Weekly Radiostation 参与:杜伟、楚航、罗若天 本周主要论文包括MSU 联合 MIT-IBM 提出首个黑箱防御框架;CMU 提出首个快速知识蒸馏的视觉框架等
即两个派生类继承同一个基类,同时两个派生类又作为基本继承给同一个派生类。这种继承形如菱形,故又称为菱形继承。
大语言模型(LLMs)在自然语言处理(NLP)领域取得了显著的进步,为广泛的应用提供了一种非常有用的、与任务无关的基础。然而,直接应用 LLMs 去解决特定领域的复杂问题会遇到许多障碍,这些障碍源于领域数据的异质性、领域知识的复杂性、领域目标的独特性以及约束的多样性(例如不同的社会规范、伦理标准、宗教信仰等)。领域专业化是让 LLMs 在许多应用中实际投入使用的关键甚至是前提。因此,随着 LLMs 开始应用在越来越多的领域中的,领域专业化的技术在近期获得了加速发展和关注,而一份全面且系统的回顾能更好地总结和引导这一领域的持续工作。
Feature Importance Explanations for Temporal Black-Box Models 论文摘要:
我们都知道神经网络训练是由许多超参数决定的,例如网络深度,学习率,卷积核大小等等。所以为了找到一个最好的超参数组合,最直观的的想法就是Grid Search,其实也就是穷举搜索,示意图如下。
领取专属 10元无门槛券
手把手带您无忧上云