前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >MIT开发了一个“病态”AI,引发对训练AI的数据重要性的思考

MIT开发了一个“病态”AI,引发对训练AI的数据重要性的思考

作者头像
AiTechYun
发布2018-07-27 10:09:27
2390
发布2018-07-27 10:09:27
举报
文章被收录于专栏:ATYUN订阅号ATYUN订阅号

AiTechYun

编辑:chux

Norman是可以通过训练理解图片的算法,但像其同名的希区柯克影片中人物Norman Bates一样,它对这个世界没有乐观的看法。

当一般的AI算法被问到抽象形状时,它们会选择陈述一些令人愉快的东西:“枝头上的一群鸟。”然而,Norman却看到了一名男子触电。

在一般的AI看到几个人站在一起的情况下,Norman却看到一名男子从窗户跳下。

这个病态的算法是由麻省理工学院的一个研究小组创建的,以上是实验的一部分,目的是了解用从“网络的黑暗角落”获取的数据进行训练会对它的世界观产生什么影响。

该软件显示了人们在恐怖环境中死亡的图像,是从Reddit网站上挑选出来的。

然后,向AI展示墨迹图并询问其中的内容,AI来解释图片,并以文字形式描述它看到的内容。这些方法叫做罗夏克墨迹实验,通常被心理学家用来帮助评估病人的心理状态,看他们是以消极还是积极的态度看待这个世界。

Norman的观点令人沮丧,它在每张照片中都看到了尸体,血液和破坏的意义。

除了Norman之外,另一个正常的AI还接受了猫,鸟和人的正常图像训练,它在相同的墨迹图中看到了更加令人愉快的图像。

Norman的反应非常黑暗的事实说明了机器学习这个新世界中的严峻现实,Iyad Rahwan教授说,他是麻省理工学院媒体实验室开发Norman的三人团队的成员之一。

“数据比算法更重要。它强调了我们用来训练AI的数据能够反映在它认识世界及其行为方式上。”

种族主义AI

诺曼是偏向于死亡和破坏,因为这是众所周知的,如果现实生活中的AI受到有缺陷数据的训练,他们可能同样会带有偏见。

Rahwan教授表示,他对诺曼的实验证明,“工程师必须以某种方式平衡数据,”但他承认机器学习重要性和规模不断扩大,不能仅仅留给程序员去做。

“有越来越多的人相信,可以用研究人类行为相同方式来研究机器行为,”他说。

微软首席设想官Dave Coplin认为,Norman是与公众和企业开始重要对话的好方法,他们将越来越依赖人工智能。

他说,必须以“对这些事情如何工作的基本了解”开始。“我们正在教导算法,就像我们教人类一样,所以存在一种风险。当我看到一个算法的答案时,我需要知道是谁做出了这个算法,”他补充道。

AI仍然有很多东西需要学习,但Coplin仍然希望,随着算法嵌入到所做的一切事情中,人类会更好地发现和消除数据中的偏见。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-06-05,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 ATYUN订阅号 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 种族主义AI
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档