伦敦警方AI误将沙漠看成裸体,这口味也是绝了

人工智能

人工智能(AI)现在是神通广大,无所不能,比如帮助人类鉴黄,但尴尬的是,伦敦警方的AI却错将沙漠图片误认为人类裸体。

据外媒Gizmodo报道,伦敦警察厅正用AI软件鉴别成人图片,该软件使用了机器学习,计划在未来2-3年内协助侦破虐童案件。

然而,该警察厅数字部门主管马克.斯托克斯表示,“AI软件尚无法分辨沙漠和裸体,很多人都用沙漠作为屏保,也许AI认为沙漠的颜色很像人类肤色吧。”

当然,也不能怪伦敦警察厅不给力,即便是硅谷巨头研发的AI也会脑袋秀逗,比如微软的聊天机器人Tay,曾在社交网络喷脏话,发表种族歧视言论。

言归正传,AI在鉴黄方面仍然任重而道远,目前这点功力别说帮助破案,只要不好心办坏事就行。

举个例子,Facebook上有一张照片曾被管理员撤下,原因是AI认为涉嫌儿童色情,结果该照片曾荣获普利策大奖,内容是越南战争中奔跑的裸体女孩。

这说明什么呢?即便AI识别到图片中有裸体儿童,但它无法理解图片发生的背景或情景,也就无法理解正是因为战争的残酷,才出现了裸体儿童。

既然这样,又谈何色情呢?

不过,伦敦警方的AI这么偏好沙漠,看来口味很特别。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171219A0EUDM00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券