首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI 裸眼鉴 Gay?深柜已经如此艰难,有些事情何必拆穿……

酷玩智

黑科技 / 小技巧 / 潮流好物

我们真的想要生活在一个看脸的社会吗?

不婚并不比已婚高级,反之,已婚也不比离婚高级,同理,丁克不比有娃的高级,同性恋也没比异性恋高级…

酷玩君只想说:生活方式不同而已,只要不影响别人,谁也别歧视谁!

「你怎么喜欢粉红色,像女人一样」

「你是男人,怎么还哭了」

「男人必须赚钱养家,买房买车。」

这些话是不是很熟悉,听起来是不是也没毛病?如果与之相反,就会被指「娘娘腔」,在某种程度上强制了男人必须要遵循这样的原则…

而针对男性的性别歧视也是导致「恐同症」出现的原因之一,因为男同性恋注重外形,气质温柔,和男性啪啪啪,他们有许多女性特质,与传统男子汉不同,所以往往会被歧视…

更让人害怕的是,这种病不只可以传染给人,还可以传染给时下火热的“人工智能”

就比如酷玩君今天要给大家介绍的这个 ——

AI识别性取向

最近酷玩君看到一条新闻,斯坦福大学一个科研小组发布了一篇论文,通过一套神经网络算法,AI(人工智能)已经能够通过面相,判断一个人的性取向。

简单讲,就是AI通过一张照片就能裸眼鉴 Gay …

问题来了,究竟你的脸暴露了什么?

研究发现,同性恋往往具有“性别非典型”特征,这也给产前激素理论提供了强有力的支持——也就是同性恋男性的长相更女性化

研究发现,男同性恋趋向于女性化,而女同反之。在研究中,作者还找到了一些其他的趋势,如同性恋男人有比直男有更窄的下巴,更长的鼻子以及更大的前额;而同性恋女性相比直女趋向于有更大的下巴、更小的前额。

写到这,酷玩君居然下意思滴摸了摸寄几的脸,发现…

握草,这不科学啊!!

异性恋(左)、同性恋(右)男女的复合面部图像

最右为异性恋(绿色)、同性恋(红色)男女的平均面部标记

经测试,给出同一个人的五张照片(给的照片越多,判断越准确)。

AI 判断男性是直是弯的准确率高达91%,判断女性的准确率也能达到83%

即便是只给一张照片,判断的准确率也能达到81%(男性)和74%(女性)。

这里有张热力图展现了性取向不同者,差异较大的部位。

细思极恐,好在这套算法现在还不成熟…

要知道想要获取一个人的照片简直不要太容易,这样研究成果一旦从实验室应用到实际生活场景当中,所产生的负面影响将会波及到大多数人,极大的侵害了少数群体的正当权益。

大家还有什么隐私可言?会不会加剧人们对同性恋人群的歧视?

...........

AI 作为工具,表示这个锅我们不背!

人类才是始作俑者,就好比你养了个娃,教他说话、走路、认知新事物,突然,有一天你养大的娃骂了句娘,你意不意外?

2016年3月23日,微软在Twitter上发布了一个名为Tay的人工智能少女——

而她的算法设定是通过学习网友的对话来丰富自己的语料库,跟人聊得越多就越聪明~

所以,上线没几个小时后,Ray很快沦为人性阴暗面的镜子

微软迫于压力,最终让她以入土而告终…

最后,酷玩君有话要说:

AI弃用是不可能的,毕竟它还在深刻地改变着这个社会,但随着AI的发展,减轻或者消除AI的偏见已经迫在眉睫。

最好的解决方法就是我们在网络上尽量谨言慎行。

——推荐好物——

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180719A0R3B900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券