怎么辨别自己的性取向?全写在你的脸上了

他们声称,性取向可以由我们的面部特征决定(如果他们的假设是正确的)这一事实证明这不是一个选择的问题,而是它有一个生物起源。

夫妻一方可以借此调查自己是否被骗婚,青少年会用这种算法来识别自己或同龄人。而在同性恋不合法的国家,这种算法更有可能危害少数群体的安全!

唐太宗李世民曾言:以史为鉴,可以知兴替。小编看到一个对这句话的翻译,是“Who knows the history, who knows the future”,这句话同样可以用来描述人工智能。AI 不断从已有的数据总结经验,就能对未知的事情做出有把握的判断。要是放在古代,可不就是神仙吗?

事实上,现在的人工智能,真的越来越全能了。它已经用于写诗、创作歌曲、画画和诊断疾病。

谷歌人工智能绘画,图片来自网络,版权属于原作者

最近,斯坦福大学两位研究人员Yilun Wang 和 Michal Kosinski,创造出一套人工智能系统,可以仅仅通过观察一个人的照片,就判断出此人的性倾向。

也就是说,你是直男还是同性恋,你喜欢女性还是男性,只要让这个 AI 系统看一看照片就得出结论,而且准确率贼高!

比如这个 AI 系统发现:同性恋男性和女性往往具有“性别非典型”特征和表情。在电脑分析的时候,他们发现异性恋与同性恋在脸部上的差别,主要集中在几个地方。(下图红色部分)

对男性而言,鼻子,眼睛,眉毛,脸颊,头发和下巴,这些地方的不同能够让AI识别出他的性取向;对女性,则是鼻子,嘴角,眉毛、头发和领口。

通过大数据分析,Wang和Kosinski发现,同性恋男人的鼻子比直男的鼻子更窄、更长,他的脸也更瘦长一点;而和直女相比,同性恋女人的颌骨较大,额头较小。

(下图左列为直,右列为弯)

图片来自论文截图

此外,虽然女性一般会笑得更多,但女同性恋者的笑容比异性恋者少。而在修饰打扮方面,女同性恋者往往使用较少的眼妆,头发颜色更深,并且穿着暴露皮肤更少、衣领更高的衣服,较少女性化的修饰风格。

论文中总结道:“这项研究观察到的女性气质差异是很微妙的,散布在许多面部特征上,只有在检查许多面部图像的平均值时才会明显”

此处来一张天海佑希的照片加以说明,怎样算是“更偏中性”。女神虽然不是同性恋,但却是“日本女生最想嫁的女人”。

图片来自网络,版权属于原作者

当然还有我们的国民女神林青霞:

图片来自网络,版权属于原作者

接下来大家一定会好奇:这个 AI 系统经过训练后,看到新的人物照片就能给出他的性倾向判断,那么它的准确率高不高?

AI‘鉴gay’这件事,准确率居然真的挺高...

把一张直男照和一张gay照放到AI面前,它判断gay的准确率有81%。

如果每人不止给一张图,而是5张,那么它判断出gay的准确率会飙升到91%....

小编时常在微博上看到有人宣称自己能一眼识别同性恋,也时不时看到网友点评某个男明星:“感觉他很有同性恋的气质哎”,或者猜测某两个男明星“他俩应该是真爱吧”......现在可好,不必再捕风捉影,只要把照片给这个人工智能系统,你就能获得更接近真相的判断结果。

不过,除了拿来娱乐,这个系统还有什么用处呢?

研究人员 Michal Kosinski 说,我们的研究结果为极富争议的“胎儿激素暴露理论”提供了强有力的支持。该理论认为:当胎儿在妈妈的子宫里时,子宫里某些激素的过高或过低,会导致孩子出生后的情绪和行为的不同,并且后期也会影响成人的性取向,甚至是决定性因素。

具体来说,同性恋倾向的形成,是因为男性胎儿对产前雄激素的暴露不足,或女性胎儿对该激素的暴露过多。而激素也有可能影响到脸型,这就是为什么,性取向和脸可以有联系。

图片来自网络,版权属于原作者

同性恋的起源原因一直没有定论,而这项研究,为“同性恋有生理基础”这一判断提供了证据。

另外,这项技术现在是用来判断性倾向,但未来可以推广应用到检测情绪、智商、甚至是犯下某些罪行的倾向上。

但是,无论是现阶段的研究结果,还是未来的延伸方向,这项研究都引发了极大的道德争议。Kosinski 提到:“我们对这些结果感到非常不安,并花了很多时间考虑是否应该将它们公之于众”。

他们最终公开了论文,随后果然引发了轩然大波。

一部分人斥责此研究为“垃圾研究”,比如整个研究样本里都是白人,缺少有色人种,没有经过同行审核(其实审过了),没有调查双性恋,没有区分性取向和性行为,等等....所以,他们的结果不可信。

Kosinski觉得,这完全是感情用事。他转推了另一个教授的话:“因为和你的意识形态不一样,所以全盘否认一项科学结果...你最终可能伤害到你爱的人。”

但是更多的讨论集中在:此项研究是否侵犯了他人的性取向隐私

有人认为,如果你打算和一个人成为朋友或者建立更亲密关系,那么知晓对方的性取向是必要的。此前天涯论坛上有过关于“同妻”的热帖,讲述女性嫁给男同性恋后痛苦的婚姻生活。

更多人认为:一个人的性取向应该是他或她的隐私,任何人不能随意知晓;网友的观点是:好吧,就算性取向和脸部差异挂钩,但是,我是啥取向就是啥取向,为什么要让你知道?你有什么权利知道?这个AI是侵犯个人隐私!

Kosinski是非常郁闷,他俩的‘初衷’也可能确实没有错,但是.....他们可能忽视了一个大问题:在全世界,有很多国家把同性恋还当做一项重罪,这项技术可能被政府使用,通过看人们的脸,就能揪出谁是同性恋,然后把他们铲除干净。

(下图红色部分,当同性恋要坐牢,黑色部分,当同性恋会被判死刑)

来自国际 LGBTI 联合会的图像,显示了世界上同性恋不合法的国家和地区

有人甚至给该项研究人员发来了愤怒的邮件:“你肯定知道在一些国家,同性恋是犯罪行为。所以我认为你是一个支持谋杀同性恋者的恐同混蛋。如果不是,请你销毁所有跟这个话题有关的工作,否则,我希望能来个人杀了你,因为你的工作将使很多人受到折磨,甚至死亡。”

对这一切,Kosinski告诉卫报记者,他没有向大众放出过能够使用的AI程序,他也不会让其他人使用。他自己认为,这项研究其实是对LGBT有好处的,因为这证明了同性恋纯碎和生物原因有关,而不是个人选择。

对那些宗教团体和煽动者,这是一个强有力的论据。他在采访中说,"当他们问你,你为什么就是死活不改变?你为什么不服从我们?你就能说,我就是不能,因为我生来如此。"

但他同时承认:令人不安的是,我们发现这些技术确实存在这样的(侵犯隐私)风险。

如果这个人工智能系统流传开来,你的照片可能就会被未经允许拿去做测试。毕竟这个时代,想“人肉”出一个社交网络用户都能办到,获取几张照片并非难事。想一想:假如你到了结婚的年龄还没有对象,然后有人拿你的照片去做测试,恰好得出你可能有同性性取向,那么你就可能被流言蜚语缠上。

但也许是吵得太凶,Kosinski自己对这项研究也有点后悔了。

他多次告诉记者,‘我真希望有人重复我的实验,证明我是错的....如果我是错的,我可能是最开心的那个...’

而小编还想延伸讨论一点:我们说到,该研究方法其实能推广到检测情绪智商乃至犯罪倾向上,假如一个人在这些方面的信息,都能被人工智能看照片加以判断,这不是妥妥的“刻板印象”吗?

人工智能经过大量数据分析得到一些普适性结论,然后将结论应用于新的个体上,这种做法人类社会也很常见,但却是不被倡导的。

普林斯顿大学信息技术和政策中心的一项研究发现:机器学习和 AI 算法,会不经意强化和扩大了社会上流传的,或者用户潜意识中的既定偏见。以上文的性倾向研究为例,如果被广泛使用,那么人们就更容易把气质柔和的男性或者外形俊朗的女性,和同性恋联系起来。

2013年,哈佛大学的一项研究也发现:非裔美国人的名字更容易和通缉令形成配对。如果这些数据进入人工智能系统,那么判断新样本时,一个非裔美国人的名字,显然会更容易得到“犯罪倾向高”的预测结果。这已经涉嫌种族歧视。

但是人工智能本身无罪,它就像一面镜子,折射出人类社会真实的一面,这个真实一面在美国经过几十年的洗礼,已经被藏起来了,大家只是嘴上不说而已,却被数据再次揭露出来。如果我们不主动纠正“刻板印象”,那么作为工具的人工智能就会加固这些印象。归根结底,主观能动性在人类手中,人工智能的进步,就如核武器一般,确实有可能被使用者拿来做坏事。

魔思姐

所以,人工智能可以准确判断你的性取向,你觉得,这是不是一件危险的事儿呢?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180918A1EBES00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券