首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能也会“精神变态”?“暗黑”AI可能危害人类

今年4月,麻省理工学院媒体实验室(The MIT Media Lab)创造出了历史上第一个“精神变态”的人工智能,名字叫做诺曼。

它变态到什么程度呢?

有一个著名的心理测验,名叫罗夏墨迹测验,专门用来测试参与者的人格。

在实际的测试中,使用了一个“心理正常”的AI和诺曼进行对比。

结果令人毛骨悚然。

比如看到这幅图,它们的反应截然不同。

“正常” AI :一群鸟坐在树枝上

诺曼:一名男子触电而死

“正常”AI:近拍一个插有鲜花的花瓶

诺曼:一名男子被枪杀

为什么诺曼会这么变态呢?

因为它是用暗黑的“垃圾”信息“养大”的。

其实现在的人工智能,大多就是用数据来摸索出一套算法,算法成熟之后就可以用来处理更多的数据。比如银行先用数据训练机器区分哪些人可以贷款给他,哪些不可以,然后就用这套算法来批复其他人的贷款申请。

所以人工智能就是用数据喂食长大的。科学家形象地说,“吃垃圾,吐垃圾”。就是说,假如用错误和偏差的数据来训练机器,得到的算法(人工智能)很可能也会出现偏差和错误。

诺曼就是麻省理工学院媒体实验室用暗黑网站上的不良信息养大的,所以它看待世界一片黑暗,是一种危险的变态“人格”。不过该实验室并非无聊和为了好玩才创造诺曼,他们是想借此提醒世人,人工智能很有可能被错误的数据误导,最终损害人类的利益。

比如说,有些公司就借助算法来排除40岁以上的求职者,而这明显违反了相关法律规定,是一种年龄歧视。更可怕的是,假如某些国家利用AI发展杀人武器,会造成更严重的后果。最近谷歌在强大舆论压力下中断了与美国五角大楼的合作就说明了这个问题引起的关注度和严重性。

AI是用来造福人类而不是危害人类的,这一点应该成为所有人的共识。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180604A19KLD00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券