前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >26秒 vs 51分钟,AI又要抢律师的饭碗了?

26秒 vs 51分钟,AI又要抢律师的饭碗了?

作者头像
IT派
发布2018-07-30 16:50:53
4350
发布2018-07-30 16:50:53
举报
文章被收录于专栏:IT派IT派

来源 | 果壳网(ID:Guokr42)

4个小时,5篇保密合同,30个法律问题。在这场巅峰对决中,人类与AI谁会略胜一筹?

20名经验老道的美国律师被AI击败了!

好消息是,这不是在法庭辩论上输给了AI。

坏消息是,输掉的这个领域是大量律师工作的核心

创造出这个AI的公司叫LawGeex(Law、Geek和Logic的合成词),这家2014年才成立的公司其目标是制造出能审阅法律文书的AI。这次比赛涉及的文书,是保密合同。

LawGeex公司主页。图片来源:LawGeex

AI与人类的竞赛

保密合同是在企业之间签署的合作协议。审阅和批准这类协议是企业法务人员日常工作的一部分。但是企业面临着人力资源短缺和工作量增加的双重困扰,一份合同的审批可能会要一周时间,这拖累了企业的效率

和目前大部分使用的AI一样,LawGeex的AI使用的也是深度学习技术。但是处理法律问题,AI仍会遇到独特的挑战。

虽然法律文书也是用人类语言写成的,但是法律用词和我们日常用词的意思有很大差异。LawGeex的报告中提到,开发者无法使用现成的自然语言处理技术,只能另起炉灶。此外,处理法务的AI需要极高的准确度,任何错误都有可能给企业带来风险,造成经济损失。相比而言,判断一部佚名的戏剧是不是莎士比亚写的,风险要小很多。这些都是技术难点。

图片来源:steemkr.com

LawGeex的AI有个非常重要的特点,它能够理解文字的意思,分析其中的概念。这个功能是靠内置的法律语言处理(Legal Language Processing, LLP)和法律语言理解(Legal Language Understanding, LLU)模块实现的。早先的算法是搜索和匹配关键词,如果关键词被省略了,算法就无能为力了。对于LawGeex的AI来说即便文字中个别词语不出现也没问题,因为它理解了含义。

比赛的流程是这样的:

4个小时的时间里,21名参赛选手要各自分析5篇保密合同,定位出30个法律问题出现在合同中的什么地方。

图片来源:Fossbytes

为了确保比赛的公正性,一群顶尖律师组成的裁判团选出了这5份合同,并制定了这30道题目。这些题目涵盖了这类协议中可能出现的各类法律问题。这不是仅仅靠搜索文字就能轻松完成的任务,而是要正确理解合同的内容

参赛的21名选手中人类组20人,这些法律行业的精英有些是自由职业者,有些在著名律师事务所工作,有些是大公司的法务,一些人有在高盛、思科等大公司工作的经验。

虽然以前也有 AI和律师之战,但是之前的比赛不是在同等难度下进行的。而这次的比赛比的是律师工作的核心——理解合同的条款,判断合同的风险。

那最终结果如何?

准确率:

AI能达到平均94%的准确率。

律师的最好成绩是85%的准确率。

速度:

AI用时26秒

人类最快需要51分钟

AI完胜!

律师真的要被AI取代了吗?

在谈论AI抢走人的饭碗这个极富争议的话题时,我们总是一遍又一遍听到同样的声音——那些低技能重复性劳动会被AI替代。实际上据一些商业分析公司的研究,高回报的脑力密集型职业比如财务经理,物理学家,甚至是CEO都极有可能被AI取代

一些餐厅已经出现了AI服务员。图片来源:republica.com

拿律师来说,站在法庭上唇枪舌剑的律师们可能暂时没有这个风险。那些在律所中的顶级律师们似乎也不必担忧,他们最重要的工作是帮重要客户解答法律问题,有了LawGeex AI这样的工具反倒是解放他们的生产力。风险最高的是律师助理,他们才刚进入这个行业,做的都是低附加值的法律文书审阅工作。

已经有公司在使用LawGeex的技术了,我们可以在LawGeex的网站首页上看到几家著名律所和会计公司的名字。当文书工作交由更加高效的机器来处理,行业的整个工作流程会发生巨大变化,律师助理的职责也会被重新定义。

比无纸化办公更厉害的,可能是无人化办公了。图片来源:Pixabay

不过在用AI代替律师之前还有几个问题要问。人工智能犯错了怎么办?犯错了就会给企业带来风险,如果未来用于刑法问题的AI出现,就更不能犯错了。那么如何判断它犯错了呢?

AI犯错怎么办?

这并不仅仅是法律AI的问题,也是所有AI共同面对的问题。谷歌的AI就犯过一个错误,2015年谷歌图片App将一位黑人的照片识别成大猩猩,2018年初有好事的媒体又测试了一次,发现谷歌并没有修复这个问题,只是单方面屏蔽了几个敏感的关键词,似乎这个问题修复起来非常复杂。

AI也有犯错的时候,谷歌图片App将一位黑人的照片识别成大猩猩,引起轩然大波。图片来源:elperiodico.com

同样也是谷歌,有研究机构发现,不同性别的人用谷歌搜工作会得到有偏向性的结果。女性搜到的高收入工作比男性少。

这类问题指向了AI算法的一个核心问题——偏见(Bias)。

图片来源:Mission to Learn

偏见的来源有两种,一个是设计程序的人,一个是用于训练AI的数据。以前只是知道AI带有偏见所以会得到错误的结果,但没有讨论偏见的来源,而一种新观点认为偏见来源于设计者,AI只是放大了设计者偏见。AI被越多的人越多的场景使用,它的偏见就会扩散开来。

想象一下带有偏见的法律AI被扩散开来就让人不寒而栗。所以需要有监管机构或者第三方公司来测试和监控 AI,至少要能识别出这些风险,能够去补救它。

不过话说回来,LawGeex的AI既然这么好用,财富500强企业估计已经等不及了吧?

(编辑:Ent、锦衣Reload)

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-03-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 IT派 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档