首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

智能算法把奥巴马识别成白人,AI也学会歧视了?

在人工智能愈发普及的当下,越来越多的地铁、商场或其他公共场所,都已出现了人脸识别的仪器。

按理说,这样先进的技术,本该让人们的生活更便捷,更自由。然而,在某些时候,这些技术非但没能造福人类,反而揭开了人类社会中最丑陋的伤疤。

比如,最近一种新的AI去马赛克算法PULSE,就犯了“种族歧视”的大忌,将美国前总统奥巴马打了马赛克的图片识别成了白人。

在美国的BLM(黑命贵)运动愈演愈烈的背景下,怒不可遏的大众在网上开始了对AI技术的又一轮口诛笔伐。

而网友们怒骂的火力,全都集中在了一个名叫杨立昆的AI大神身上。

这位大神之所以躺枪,是因为身为FB公司首席AI科学家,并且拿过图灵奖的他,实在不忍看到AI技术遭到大众如此误解与贬损,于是便在推特上为PULSE算法“出头”辩护。

杨立昆解释说,这种情况往往是由于数据偏差导致的,PULSE算出来的人脸之所以倾向于白人,是因为神经网络是在FlickFaceHQ上训练的,而上面的大部分照片都是白人。

尽管杨立昆的解释已经十分冷静与客观,但怒火中烧的网友仍将种族歧视的帽子扣在了他头上,并对他展开了铺天盖地的谩骂。

最后,这位被网友“喷怕了”的AI大神,不得不宣布退出了推特。

不过,虽然杨立昆选择了主动避退,但人们对于“AI歧视”的争议却不会就此终止,实际上,这次AI识别技术的失误,只是众多类似事件中的一角。

早在2015年,谷歌就在自己的网站中,加入了一个通过机器识别照片中的内容,并自动打标签分类的功能。

谷歌推出这项功能的初衷,本是为了方便用户管理和搜索。然而,这个心智不成熟的AI,却在实际操作中“抽风”,将一位黑人程序员和其女友的照片打上了“Gorilla”(大猩猩)的标签。

顿时,黑人程序员小哥心中一阵MMP……

而这样的情况,也让人禁不住发问:为什么现在连AI也开始沾染上人类“歧视”的恶习了呢?

实际上,AI 本是一种工具,本身并无偏好与喜恶,而AI所具有的“歧视”与“偏见”,往往是背后算法训练的数据所导致的。

目前的人工智能背后需要即为大量的数据去训练,尽管人工智能本身并没有“歧视”与“偏见”,但背后数据的研究人员却会因为个人的因素,以至于在训练数据的选择上就会产生偏向性。

通常情况下,在创建 AI 算法的过程中会有许多工程师参与,而这些工程师通常来自高收入国家的白人家庭,他们的思想、价值观与阶层意识,都导致了经由他们制造出来的 AI ,也不可避免地带上了与之类似的色彩。

如果用于训练的数据里白人比黑人更多,那显然白人的识别率就会更高。

然而,尽管人工智能在被制造的过程中,会不可避免地受到人类研究者的影响,但人类却学会了用一种“AI制AI”的方式,来消解人工智能可能存在的偏见。

比如,旧金山就曾经推出过一种“偏见缓解工具”,该工具使用人工智能技术自动编辑警方报告中的嫌疑人种族等信息。它的目的是在决定某人被指控犯罪时,让检察官不受种族偏见的影响。

根据旧金山地区检察官办公室的说法, 这个工具不仅会删除关于种族的描述,同时还会进一步删除关于眼睛颜色和头发颜色等可能有意无意对检察官造成暗示的信息,甚至地点和社区名称也将会被删除。从而避免歧视现象的发生。

由此可见,人工智能所带有的“偏见”,并非一个无法消除的弊端,经过人们对算法的改进,以及完善研发之初的测试和验证,就能避免在后续研发过程中AI无意识创造“偏见”。

而类似偏见缓解工具这样的AI技术,也进一步说明了,AI的发展并非会真的加深人类社会中固有的歧视,相反,它有可能会为纠正这种人类数千年来的痼疾提供一个新的解决方案。

而这,也正是人工智能技术发展的初衷之一——让更多的人平等而有尊严地生活下去。

(文章部分图片源自网络,如有侵权请联系删除)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200827A0DWWT00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券