偏见很难逆转!机器人可能成为种族主义者或性别歧视者

一份令人震惊的新报告耸人听闻地警告称,人工智能可能成为种族主义者和性别歧视者。

卡迪夫大学(Cardiff University)和麻省理工学院(MIT)的一项研究显示,计算机科学和心理学专家认为,机器人的歧视可能会进化,因为“人工智能机器很容易就能表现出来”。

研究发现,偏见不是人类特有的现象,机器可以相互学习。

基于计算机模拟,研究小组发现机器可以向人类学习,然后向它们的机器人同伴学习

在一个游戏中,基于电脑的人工智能被要求根据个人的声誉在自己的团队或不同的团队中捐赠。

随着游戏的进行和成千上万的模拟实验的积累,研究人员意识到人工智能正在向它的同伴学习,只向处于类似位置的人捐款。

研究表明,人工智能“通过优先复制那些短期收益更高的人,更新了他们的偏见水平,这意味着这些决定不一定需要高级认知能力”。

来自卡迪夫大学犯罪与安全研究所和计算机科学与信息学院的罗杰·惠特克教授是这项研究的合著者,他说:“通过多次运行这些模拟,我们开始理解偏见是如何演变的。ES和促进或阻碍它的条件。

“我们的模拟显示,偏见是一种强大的自然力量,通过进化,它很容易在虚拟人群中受到激励,从而损害与他人更广泛的联系。”

机器人可能成为种族主义者或性别歧视者报告-“偏见很难逆转”

“对偏见群体的保护可能会在不经意间导致个人形成进一步的偏见群体,导致人口分裂。“

这种普遍的偏见很难逆转。

“有能力识别和模仿他人的自主机器在未来可能容易受到我们在人类中看到的偏见现象的影响,这是可行的。”

这一发现对人类来说可能是个坏消息,因为机器人在未来将获得越来越多的能量。

人工智能将向其他机器学习。

英国央行(Bank of England)首席经济学家安迪•霍尔丹(Andy Haldane)表示,到2045年,人工智能将处于“思考状态”。

霍尔丹在接受BBC广播4台《今日》节目采访时表示:“前三次工业革命主要是机器取代人类完成主要的体力劳动,而第四次将有所不同。

“突然之间,这台机器将取代人类思考和做事。”

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180908A0OWQA00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券