前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【智能司法】可解释的Rationale增强罪名预测系统

【智能司法】可解释的Rationale增强罪名预测系统

作者头像
yuquanle
发布2020-03-31 17:35:21
9030
发布2020-03-31 17:35:21
举报
文章被收录于专栏:AI小白入门AI小白入门

论文标题:Interpretable Rationale Augmented Charge

Prediction System

论文来源:COLING 2018

论文链接:https://www.aclweb.org/anthology/C18-2032/

引言

任务定义

罪名预测(Charge prediction)是智能司法领域最热门的任务之一。其任务定义为:罪名预测任务旨在通过分析案件的事实描述(fact description)来确定案件的最终罪名,例如抢劫罪、盗窃罪或欺诈罪。

目前大多数工作通常将罪名预测视为基于事实描述文本的分类问题,并取得了一系列不错的进展。但是,在司法领域,每个决定都可能是生死攸关的问题,因此法官和律师很有必要了解机器判决的依据。倘若机器自动判决只给出最终结果而不提供任何解释,那么人们将无法信任机器的判决。

可解释性

可解释性意味着AI系统能够解释其预测的能力,并且已经引起越来越多的关注。Hendricks et al.[1] 将可解释性分为二大类:Introspection explanation和Justification explanation。

  • Introspection explanation:解释模型如何确定其最终输出。例如:考虑罪名和法条的高度相关性,Luo et al. [2] 引入法条信息来提高罪名预测的准确性。与此同时,和该次预测相关的法条也可以被视为对罪名预测的一种可解释性。
  • Justification explanation:该方法生成一些句子,这些句子作为支撑系统预测结果的相关依据。例如:Ye et al. [3] 考虑将法院观点(court view)作为罪名的解释。因此,他们使用charge conditioned Seq2Seq模型,根据案件的事实描述和给定的罪名标签来生成法院观点。

本文贡献

本文主要的创新点是提出了一种基于神经网络的系统来探索罪名预测任务中的可解释性问题。首先,作者使用深度强化学习方法来提取事实描述中的rationales(基本原理/解释/依据),这些rationales意味着从输入文本中提取简短且具有决定性的文字片段。然后将rationales信息融入到分类模型中,以提高预测的准确性。

自然而然,提取的rationales可以作为对模型预测结果的一种可解释性,从而提高了模型的透明度。这项工作中聚焦于Introspection explanation。实验结果表明,本文提出的方法能够与人工注释高度一致地提取rationales,并且在预测准确性方面可与经典的基于注意力模型相媲美。

难点:

  • rationales的粒度难以掌握:句子级粒度太粗,不够具体,而单词级太细从而失去了可读性。
  • 难以获得具有rationales注释的语料库。
  • 在具有较高解释性的同时提高预测准确性的方法非常必要,但目前研究很少。

模型

Interpretable Rationale Augmented Charge Prediction System

如图所示,该系统将案件的事实描述作为输入,并输出预测的罪名以及rationales(依据)。Rationales在预测过程中起着重要作用,因此可以将其视为罪名预测的解释。该系统由两个主要组件组成:提取器(Extractor)和分类器(Classifier)。

本文首先采用深度强化方法学习方法训练Extractor,然后冻结Extractor的参数,使用Extractor获取每个词的重要性,并使用每个词的重要性对所有单词的RNN隐藏状态进行加权求和,用于进行罪名预测。

接下来使用数学语言来定义该任务。首先将输入的事实描述定义为单词序列,罪名标签为非负整数。给定,首先抽取基本原理(rationales),其中。然后基于和预测最终罪名。

Phrase-level Rationale Extraction

考虑到词片段作为rationales在语义上应该更完整,因此本文用短语(而不是单词)来表示事实描述。作者将事实描述分为最大长度为6的短语,此时短语级的事实描述可以表示为:,其中代表事实描述中的第个短语,而的短语嵌入为该短语中包含的词对于的词嵌入求平均。

整个Phrase-level Rationale Extraction的过程如图所示,首先短语通过Embedding Layer之后过一个Bi-RNN Layer,然后到Selection Layer,Selection Layer用于计算,其计算方式为:

其中和为Bi-RNN functions,为隐藏层输出。

在Extractor中,根据概率采样得到,其中。抽取的Rationales是。

其中Rationales的抽取学习需要奖励功能来指导。因此,本文引入 一个2层的RNN模型作为Rewarder,用于对进行建模。的最终嵌入取最后的hidden层进行concatenation:

损失函数为:

为了控制Rationales的数量,作者在上引入了一种新颖的惩罚,即,以控制不至于太小或太大而在附近。其中是常数,本文取。

Rewarder部分的反馈体现的梯度的更新,本文使用Lei et al. [4]更新梯度。

Rationale Augmented Charge Prediction

本部分将利用Extractor生成的基本信息来训练Classifier。经过之前的训练,Extractor已经具备推断rationales的能力。

为了更好地利用rationales信息并使罪名预测更加准确,本部分设计了一个基于rationales增强机制的RNN模型。给定事实描述词序列,第层在时间的隐藏状态定义如下:

其中是单向RNN函数。事实描述在第层的表示由层中所有隐藏状态的加权总和得出。在此,被视为事实描述的重要性分布。从预训练的提取器中获取权重,其由softmax层基于计算得到。更确切地说:

事实描述的最终表示为每个RNN层中表示串联得到:

然后通过激活函数:

损失函数为:

实验

实验结果

再来看看实验结果,本文选用了,,作为baseline。其中方法和唯一的不同是:rationales 不是由phrase组成的。

Case Study

不同方法对比效果:

本文方法:

参考文献:

[1] Generating visualexplanations. [2] Learning to predict charges for criminal cases with legal basis. [3] Interpretable charge predictions for criminal cases: Learning to generate court views from fact descriptions. [4] Rationalizing neural predictions. [5] Interpretable Rationale Augmented Charge Prediction System.

The End

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-03-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI小白入门 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 引言
    • 任务定义
      • 可解释性
        • 本文贡献
        • 模型
          • Interpretable Rationale Augmented Charge Prediction System
            • Phrase-level Rationale Extraction
              • Rationale Augmented Charge Prediction
              • 实验
                • 实验结果
                  • Case Study
                  领券
                  问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档