首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能Gaydar是伪科学还是灾难?壁虎科学 Ch.5

壁虎按:去年(2017)的这个时候,斯坦福大学的两位研究人员做了一个惊人的研究:“用人工智能(AI)来判断一个人是不是弯的”。他们社交网站上抓取了几十万张照片,来训练一个面部识别系统,目的是为了确定某人是直的还是弯的。这个去年被媒体炒到风口浪尖的报道到底几分属实、几分炒作,让我们深入讨论一下。

(courtersy: pinterest.com)

这项研究首先得到了《经济学人》杂志的报道,然后全世界媒体不分三七二十一蜂拥追随报道我们甚至看到国内媒体也开始疯转“新人工智能可以凭照片判断性取向”加上“准确率超过”多少多少等惊人标题。或者会有投机倒把的APP和小程序出现,宣称可以通过你的照片判断你是直是弯。

(《经济学人》2017年9月的报道)

但是稍微用一点逻辑和批判思维去思考,我们就知道事情绝不会这么简单。认真阅读原研究就知道结论很明显:仅基于这项研究,AI无法直接从照片判断某人是不是同性恋者。

让我们先回顾一下去年的这一份语惊四座的研究吧。这份研究由Michal Kosinski和王一伦(音译,Yilun Wang)撰写。该论文指出:“鉴于单一的面部图像,该软件能够在81%的案例中区分男性同性恋和异性恋,在71%的案例中可以正确地区分女性同性恋和异性恋。”

从表面看来,这听起来像“通过观察他人的照片,人工智能可以判断男人是男同性恋还是直男。”也因此这被推向头条新闻。但是这并不是这个结论的正确意思。

事实上,AI识别同性恋的概率并不是81%。而是给AI两张照片(一张同性恋照片、一张异性恋照片),然后询问它哪一个更可能是同性恋。他猜测的结果的正确率是男性81%,女性71%。也就是说他猜测的基线是从50%开始的——因为即使随机猜测,它也有50%的概率正确。虽然它的结果好于50%,但也不能说明它猜测某人是不是同性恋的正确概率是81%。

所以我们不必害怕私生活包括性取向会在你去机场或看球时被人工智能扫描出来。因为目前没有太多证据表明这项技术可以做到这一点。

(courtersy: pinterest.com)

于此同时,这份研究的结论确实比随机瞎猜(即50%)的概率要高出很多。让我们来探讨一下Kosinski和Wang的研究中得出较高正确率的原因到底是什么?两位作者表示,这个软件主要学习和识别“差异”:即男性面孔中的女性特征以及女性面孔中的男性特征,但是它也会被其他信息,例如表情和伤疤所迷惑。

然而,这份在概率上相当成功的研究所使用的样本选择是带有选择偏差的。正如奥柏林学院的社会学家Greggor Mattson在一篇文章中指出:当研究者所使用的图片都来自交友网站时,这本身就是有问题的。因为人们在选择放什么照片上去的时候本身就带有选择性,而这些选择性和社会对同性恋以及异性恋的审美和社会期待/规劝有着很大关系。

(courtersy: pinterest.com)

举个例子,在Blued上,我们会观察到更多男生使用美颜、瘦脸、或者放大眼睛等照片处理手段,而在陌陌上,会有更多男生会选择更加符合男性气质的照片。另外,无论中外,男同性恋对于肌肉的表现欲和皮肤的护理都有较为明显的集体性特征。并且原研究为了缩小适用性,所有受试者都是白人,并且没有包括双性恋和跨性别者。也即是说一个gay,在社交网站上放上瘦了脸和放大眼睛的照片,更多说明的是社会和集体期待这样一个长相,而不是这个长相与他本身的性取向之间的关系。

(courtersy: pinterest.com)

[同母兄弟的出生顺序效应, 简单来说:弟弟比哥哥更容易弯。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180928G1SLNC00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券