《中国澳门风云2》中的傻强这个人工智能机器人真的是赚尽了人们的眼球,不仅能说话,还能和发哥吵架。当然傻强也只是拍电影合成的特效。但是随着科技的发展和技术的成熟,像傻强一样的机器人已经不是“特效”。
英国卡迪夫大学和美国麻省理工学院的计算机科学和心理学专家发现,自主机器人可以通过识别、复制、学习其他机器人的行为产生偏见,某些种类的算法已经产生性别歧视和种族歧视。歧视是人类社会特有的现象,需要认知才有的现象。但是通过计算机强大的计算能力,通过一些算法可以从人类的资料库中获得性别歧视、种族歧视等等。最新研究发现,人工智能可以进化出不同的偏见的群体。
参与研究的卡迪夫大学计算机科学与信息学教授Roger Whitaker表示:偏见是自然产生的、影响非常大的,它很容易被激励、损害大范围的连通性。来自同一偏见群体的保护可以非主观地引起更进一步的偏见,使整个群体四分五裂。这种广泛传播的偏见很难逆转。
在性别研究中,微软,IBM,Face++等人脸识别系统中,人脸识别中存在种族歧视和性别歧视。“对白人会非常友好,对黑人和女性的错误率就会很高”。微软有21%的概率无法识别黑人女性,IBM和Face++有35%无法识别。
当然,在人工智能出现之后希望生产出听话的人工智能机器人,像傻强那样对人类忠诚。既然能够读取歧视的信息进行学习计算,那么忠诚也服务也会同样的去学习并生产出“傻强”那样忠诚的机器人。
领取专属 10元无门槛券
私享最新 技术干货