前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >如何使用OpenAttack进行文本对抗攻击

如何使用OpenAttack进行文本对抗攻击

作者头像
FB客服
发布2021-09-16 10:55:44
1.2K0
发布2021-09-16 10:55:44
举报
文章被收录于专栏:FreeBufFreeBuf

关于OpenAttack

OpenAttack是一款专为文本对抗攻击设计的开源工具套件,该工具基于Python开发,可以处理文本对抗攻击的整个过程,包括预处理文本、访问目标用户模型、生成对抗示例和评估攻击模型等等。

功能&使用

OpenAttack支持以下几种功能:

高可用性:OpenAttack提供了易于使用的API,可以支持文本对抗攻击的整个过程;

全面覆盖攻击模型类型:OpenAttack支持句子/单词/字符级扰动和梯度/分数/基于决策/盲攻击模型;

灵活性强&可扩展:我们可以轻松攻击定制目标用户模型,或开发和评估定制的攻击模型;

综合评估:OpenAttack可以从攻击有效性、对抗示例质量和攻击效率等方面全面评估攻击模型;

OpenAttack的使用范围非常广,其中包括但不限于:

为攻击模型提供各种评估基线;

使用其全面评估指标综合评估攻击模型;

借助通用攻击组件,协助快速开发新的攻击模型;

评估机器学习模型对各种对抗攻击的鲁棒性;

通过使用生成的对抗示例丰富训练数据,进行对抗训练以提高机器学习模型的鲁棒性;

工具模块

工具安装

我们可以使用pip安装,或者克隆该项目源码来安装OpenAttack。

使用pip安装(推荐)

代码语言:javascript
复制
pip install OpenAttack

克隆代码库

代码语言:javascript
复制
git clone https://github.com/thunlp/OpenAttack.git

cd OpenAttack

python setup.py install

安装完成之后,我们可以尝试运行“demo.py”来检测OpenAttack是否能够正常工作:

使用样例

基础使用:使用内置攻击模型

OpenAttack内置了一些常用的文本分类模型,如LSTM和BERT,以及用于情感分析的SST和用于自然语言推理的SNLI等数据集。

以下代码段显示了如何使用基于遗传算法的攻击模型攻击SST数据集上的BERT:

代码语言:javascript
复制
import OpenAttack as oa

# choose a trained victim classification model

victim = oa.DataManager.load("Victim.BERT.SST")

# choose an evaluation dataset

dataset = oa.DataManager.load("Dataset.SST.sample")

# choose Genetic as the attacker and initialize it with default parameters

attacker = oa.attackers.GeneticAttacker()

# prepare for attacking

attack_eval = oa.attack_evals.DefaultAttackEval(attacker, victim)

# launch attacks and print attack results

attack_eval.eval(dataset, visualize=True)

高级使用:攻击自定义目标用户模型

下面的代码段显示了如何使用基于遗传算法的攻击模型攻击SST上的自定义情绪分析模型:

代码语言:javascript
复制
import OpenAttack as oa

import numpy as np

from nltk.sentiment.vader import SentimentIntensityAnalyzer



# configure access interface of the customized victim model

class MyClassifier(oa.Classifier):

    def __init__(self):

        self.model = SentimentIntensityAnalyzer()

    # access to the classification probability scores with respect input sentences

    def get_prob(self, input_):

        rt = []

        for sent in input_:

            rs = self.model.polarity_scores(sent)

            prob = rs["pos"] / (rs["neg"] + rs["pos"])

            rt.append(np.array([1 - prob, prob]))

        return np.array(rt)

# choose the costomized classifier as the victim model

victim = MyClassifier()

# choose an evaluation dataset

dataset = oa.DataManager.load("Dataset.SST.sample")

# choose Genetic as the attacker and initialize it with default parameters

attacker = oa.attackers.GeneticAttacker()

# prepare for attacking

attack_eval = oa.attack_evals.DefaultAttackEval(attacker, victim)

# launch attacks and print attack results

attack_eval.eval(dataset, visualize=True)

项目地址

点击底部【阅读原文】获取

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-08-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 FreeBuf 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 关于OpenAttack
  • 功能&使用
  • 工具模块
  • 工具安装
    • 使用pip安装(推荐)
      • 克隆代码库
      • 使用样例
        • 基础使用:使用内置攻击模型
          • 高级使用:攻击自定义目标用户模型
          • 项目地址
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档