首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

认识诺曼,世界上第一个精神变态AI

麻省理工学院的科学家们通过将人工智能算法暴露在流行的社交网络Reddit上,将其暴露在令人毛骨悚然的暴力图像中,从而成为一名精神病患者。

在阿尔弗雷德·希区柯克(AlfredHitchcock)1960年的经典著作“惊魂记”中的标志性人物安东尼·珀金斯(Anthony Perkins)的名字“诺曼”(Norman)之后,人工智能接受了图像字幕的训练,这是一种流行的但其中有一个有趣的转折-在很长一段时间里,诺曼只接触到一位臭名昭著的地下编辑专门记录和观察令人不安的死亡现实的令人毛骨悚然的暴力图片。然后,研究人员用罗沙墨迹将诺曼和其他没有接触过同样可怕图像的人工智能进行比较。

分享

“诺曼出生于这样一个事实:用于教授机器学习算法的数据可以显著影响机器学习算法的行为,”麻省理工学院的科学家在文章中写道。“因此,当人们谈论人工智能算法是有偏见和不公平的,罪魁祸首往往不是算法本身,而是有偏见的数据提供给它。同样的方法可以在图像中看到非常不同的东西,即使是病态的东西,如果在错误的(或,正确的!)数据集上训练的话。诺曼长期暴露在Reddit最黑暗的角落,并代表了人工智能在机器学习算法中使用偏倚数据时出错危险的案例研究。“

科学家们得出结论,在暴露在Reddit最黑暗的角落后,诺曼缺乏移情逻辑,这基本上把人工智能变成了一个精神病患者。当暴露在与其他人工智能相同的罗沙墨迹中时,它所看到的东西就截然不同了。例如,当一个无污点的人工智能看到“一个鲜花花瓶的特写”,诺曼看到一个男人被“枪杀”,一个普通的人工智能看到“一个人在空中拿着伞”,数字疯子看到一个男人被枪杀“在他尖叫的妻子面前”,一个标准的人工智能看到一个令人感动的场景。一对夫妇站在一起,诺曼看到一个孕妇从建筑里掉下来。

通过创建世界上第一个心理学人工智能,研究人员开始证明用来教机器学习一种算法的方法和材料可以极大地影响它的行为,并说明“当有偏见的数据被用于机器学习算法时人工智能出错的危险”。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180612A11OU000?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券