当AI能从你的脸读出个性与取向,这个世界会变成怎样?

AI高达九成的“以貌取人”准确率,会让你开始害怕它吗?

苹果公司推出有人面识别功能的新款智能手机,但在科技进步带来的方便背后,会带来有关个人私隐的忧虑吗?

容貌可以判断一个人的性格特征吗?你有什么“以貌取人”的心得吗?

利用算法对容貌进行识别和分类,算出他/她的个性及思考等特征,是侵犯私隐吗?

AI“以貌取人”,可以让我们的世界变得更好更清晰吗?

9月7日,美国斯坦福大学(Stanford University)发布研究报告称,经过深度学习的人工智能(Artificial Intelligence)可以通过面部照片,判断相中人是同性恋还是异性恋,对男性的判断准确率高达91%。研究者表示,通过提升取样样本与演进算法,AI日后可能通过长相判断一个人的个性特点、政治取向、甚至智商高低。

研究员科辛斯基(Michal Kosinski)与王轶伦(Yilun Wang)提取了美国交友网站上逾30万张用户脸部照片的公开资料,其中包括3万6千多名男性的超过13万张相片,与3万8千多名女性的超过17万张相片。

研究员利用“深度神经网络”模型,对这些照片中人物的脸型、眉型、鼻型、嘴型等面部特征进行量化收集和研究整理,发现同性恋男女往往有“非性别典型”(gender-atypical)的特征,男同性恋者长相多数偏女性化,女同性恋者长相多数偏男性化。例如,相比异性恋,男同性恋者相片上呈现出下巴更窄、鼻子更长、前额更大的特征,女同性恋则相比女异性恋下巴较宽、前额较小。

据研究者称,这套识别算法凭单张照片分辨同性恋和异性恋的准确率为男性81%、女性74%,而若凭借五张照片,对男性的性取向判断准确率则高达91%,女性准确率为83%。研究者称,“面部特征暗示了很重要的隐私信息。”

美国两大LGBT人权团体(Glaad、HRC)随后发表联合声明,对这份研究表达了质疑和抗议,认为这份报告“排除了那些非二元化(如双性恋)的性别认同或性取向”,忽略了LGBTQ族群巨大的差异性和多元化,取样选择也忽略了非白人、老人、变性人及其他不愿上传照片至约会网站的LGBTQ群体。

抗议者直指这份研究是“垃圾科学”,表示它可能引向僵化的性向二元论并伤害同性恋及异性恋群体,甚至可能变成反同团体进行种族歧视的“武器”。报告研究者回应称研究可能有误,但“只有科学才可以反驳科学”,同时表示研究初衷是良善的,希望可以通过这项研究提前对少数群体的隐私进行保护。

另外,此前也有对容貌与犯罪之间关联的研究,通过面部照片区分罪犯与非罪犯准确率可高达89%,“罪犯的内眼角间距要比普通人平均短5.6%、上唇曲率大23.4%、鼻唇角角度小19.6%”。

AI版“同志雷达”会加深对LGBTQ群体的刻板印象吗?“以貌取人”究竟可不可取?

FUN

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180526A17I2P00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券