首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

用于合成人像,AI显示种族主义

两位美国开发者将机器人人像的制作委托给人工智能的想法并不讨好该领域的专家。

这些开发人员的目标是大大减少制作合成肖像所需的时间,同时提供更成功、更逼真的版本。但科学研究专家和人工智能伦理观察家向他们保证,这样的创新会加剧已经存在的种族主义或基于性别的偏见。

合成肖像的使用在很大程度上已经不精确并受到批评

研究这个问题的学者已经证明,在详细描述一张脸而不是笼统地描述一张脸时,人类的记忆在很大程度上是有缺陷的。因此,合成肖像的做法对警方调查人员来说是一种非常不可靠的帮助,特别是因为如果证人没有正确看到或很长时间没有看到,结果往往会取代证人记忆中真正嫌疑人的脸

结果是合乎逻辑的,无辜的人因此被捕,他们的脸与合成肖像的相似或相似。NGO Innocence Project 的一项调查显示,69% 的无辜者被定罪是由于证人犯错的证词。最重要的是,这样的程序往往会不成比例地挑出已经被边缘化的人,并朝着证人的偏见方向发展。对于警察来说,这可能是个大问题,更不用说美国警察了。

具体来说,这个项目真正解决的唯一问题是制作这样一幅肖像所需的时间。

人工智能当然是种族主义者,它复制人类

许多发明家,不仅仅是在人工智能领域,都认为他们是中立的,或者至少认为没有感情的机器不会有偏见。这是完全错误的。在不质疑那些肯定它的人的诚意的情况下,一项新技术与它的创造者一样遭受着同样的偏见。这里的偏见是假设警察永远不会错,而且他们总是真诚和诚实的。事实上,由于人工智能是在罪犯数据库上训练的,所以它会毫不犹豫地接受他们的结果。然而,这两个假设已被记者和统计研究人员广泛推翻。

这种偏见适用于所谓的中立机器,对黑人和西班牙裔尤其不公平,他们比其他人更经常被捕和被判刑(白人的 5 倍)。对于一个基本上不是种族主义者的人工智能来说,这样的统计差异只会让它认为非白人本身就是一个风险因素,有效地将肤色转化为指定潜在罪魁祸首的论据。几个例子已经表明,这些风险远不止是一种假设,例如,一名非裔美国人因在他从未去过的州犯下的盗窃案而被捕并被关押。正是“智能”面部识别将他指定给了警察。

参加测试,并向DALL-E索取一张 CEO 的照片,以及一张银行劫匪或毒贩的照片。人工智能的中立性,如果它曾经存在的话,已经存在了。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230209A04LI500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券