首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

用人工智能识别性侵犯,可行吗?

科研渠道、科研技巧

科研观点、科技趣闻

科技政策、科技人物

科技热点、请关注我们

Metoo(我也是),是女星艾丽莎·米兰诺(Alyssa Milano)等人2017年10月针对美国金牌制作人哈维·温斯坦(Harvey Weinstein)性侵多名女星丑闻发起的运动,呼吁所有曾遭受性侵犯女性挺身而出说出惨痛经历,并在社交媒体贴文附上标签,藉此唤起社会关注。

从最近一周爆出的新闻来看,中国版#Me Too#开始了。朱军、章文、雷闯、谢伦灿、张驰和孙勉等主流的非主流的名人纷纷中枪。

谍战片中的正义与邪恶的斗争在很多情况下,不到最后时刻我们不知道最终的凶手/大反派是谁。关于对女性侵害上,现实比谍战片中的情况复杂得多,有时候受害的年轻女性即使受害,由于各种原因,依然忍气吞声,内心受到严重的创伤,那么我们有没有可能通过某种面部识别技术来提前确定罪犯,或者是提示我们远离危险呢?

前一段时间,上海交通大学的吴小林(音)和张希(音)在arXiv上发布了一篇论文,题目是“基于人脸的自动犯罪性推测”(Automated Inference on Criminality Using Face Images)。在文章中,作者主要提出:

1、与非罪犯相比,罪犯的相貌差异度比较大,表情差异度也比较大。

2、内眼角的间距、上嘴唇的曲率和鼻唇角角度这三样检测指标,在非罪犯和罪犯间有显著差异。

作者在论证完自己的论点后,认为自己是第一个研究根据面相自动推理犯罪

的人员。通过大量的实验和交叉验证,证明通过机器学习,是可以通过对面相的数据分析,并对犯罪行为作出可靠推断的。此外,在除去种族、性别、年龄因素后,发现了一种非罪犯面相的一般规律。

这篇文章公布后,在机器学习科研圈中引起了一场不大不小的风波。其中有来自康奈尔大学(值得一提的是,arXiv就是康奈尔大学的接管方)的同行就批评道,犯罪者之所以被称为犯罪者,是因为他的行为,而不是因为长相,另外指出,正是因为长相不同,才会引来有可能存在的有罪推断。随着事件的发酵,又包括谷歌机器学习工程师、人工智能专家和普林斯顿大学神经科学专家在内的三名美国作者撰写长篇文章,指责吴小林在搞“科学种族主义”,暗指吴是曾编写过关于犹太人面相纳粹教材的意大利种族主义外科医生龙勃罗梭的继承人,宣传的是“天生犯罪人”思想的变种。

在技术层面上,三位作者也提出了质疑,比如样本过少、罪犯和非罪犯着装不同、非罪犯微笑的比例更大等。但最令作者感到担心的是,用这些歧视性的数据训练机器后,机器的判断结果也会是歧视性的。如果作为工具对司法产生影响,就会在社会中产生反馈,并在一次次的判决中巩固这种歧视。

针对批评,作者吴小林有话要说。自古以来,各个文化中都有类似‘相由心生’的说法。就连亚里士多德都认为,由外部特征可以推断人的秉性(论文中也有提出)。但他和他的学生觉得这个说法站不住脚。“最开始,我们是抱着怀疑的态度,想用现代科学方法去证伪这种观点的。”然而在实验数据出来之后,他和学生也是一头雾水,这也就是为什么一年之前就得出的实验结果,在经过一年的质疑与推敲后才发表出来的原因。对于大家的质疑,他一一作出了回应:

一、警察提供的罪犯照片和网上抓取的普通人照片不同

吴解释说,他们在照片上故意对光学信号上增加了很多噪音,以淹没不同型号相机在信号上的差异。虽然在第二版论文上,误判率由10.49%上升了不少,但分类器(卷积神经网络,CNN)仍有75%的准确率,并没有推翻之前的结论。

二、89.51%的检出率仍不够高,不能够做为“审判”的依据

吴认为,人们对于这方面的担忧不无道理。在国内,已经有部分媒体用“看脸定罪”作为标题。媒体嘛,喜欢弄大新闻,说现在已经钦定了,就批判一番。对此他声明,“看脸定罪”纯属无中生有,坚决反对将该研究成果运用于甄别罪犯或“潜在犯罪者”。他说:“就价值观来讲,我强烈反对任何形式的歧视,当然包括以貌取人”。

三、罪犯组的身份证照片多不穿衬衫的,非罪犯组多穿了白领子的衬衫

对此,吴回应道,在实验中训练和测试使用的图片全部是只抠出了脸部的。

四、样本量过少,容易出现过拟合风险

吴表示,他难以拿到更多的中国男性罪犯身份证照片。但在实验中,曾经把训练集中的照片随机标签为罪犯或非罪犯,看看四个分类器能否以超过50%的概率区别这两组照片。结果是四个分类器都失败了。一些类似的、更具挑战性的测试结果也是如此。这些实证结果,说明论文中分类器出色的表现并非由数据过拟合所致。否则,在样本集大小和类型一样的情况下,分类器也应能够区别两组随机标签的数据。

五、吴,把你的照片放进去,会有什么结果?

吴认为,人脑往往会被一个特定事件的高条件概率锁住,而忘记了该事件在大环境里发生的极低概率。基础概率谬误是媒体惯用的伎俩,夸张地描述某项大众所不熟悉的新技术或新研究,借此操纵大众,逐步灌输对人工智能研究的不理性恐惧。

吴小林结论要谨慎对待,但如果确实能通过实验的检验,那么是可信的,也算是填补了一块知识的空缺。但文章的结论并不代表可以仅由面相推断一个人是否是罪犯,哪怕仅仅是推断一个人犯罪可能性的高低。需要大家警惕的是,媒体在宣传该项研究的过程中,容易对结论进行夸张,误导大众;如果后果严重,可能在大众中产生对特定面相的歧视。这是必须避免的。在挑战机器学习的能力上限的过程中,不可避免的要将人脸识别从生物学维度延伸到社会心理学维度。假如我们能够教会机器复制人类对陌生人的第一印象,通过图灵测试,那么人工智能的发展将进入一个崭新的阶段。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180728A1N0RF00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券