首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

世界第一个精神变态人工智能诞生,到底是怎么样的?

从精通作诗、善于歌唱、帮医生看CT片子,再到给餐厅打电话预约座位,由人工智能带来的“红利”已经惠及我们的日常生活。不过,就当这些“白天鹅AI”大放异彩的时候,有关人工智能的伦理、隐私、边界也被业内人士不断讨论。

近一段时间,美国麻省理工学院一个研究团队研发出的一款名为“诺曼”的全球首个精神变态人工智能,而它更像是一只“黑天鹅AI”,像是人工智能光明与黑暗的正式对垒。这样的一款人工智能产品对整个行业有着怎样的警示作用?“算法”无罪真的能为人工智能的伦理罪责开脱嘛?

就当大家为之前与人类交流无障碍的人工智能“索菲亚”感到惊叹时,另一款名为“诺曼”的人工智能三个月前在美国麻省理工学院诞生了。但是光从它的宣传图片就能看出,“诺曼”一半是恶魔的嘴脸,一半是阴郁的人脸,而这也注定了它和我们接触过的所有人工智能都不同。它的名字来自于,惊悚片大师希区柯克的经典之作《惊魂记》中的变态旅馆老板诺曼•贝兹。

《惊魂记》剧照

其实,诺曼本质上是一款被训练执行图像字幕处理的人工智能,给诺曼一张图像,它就会自动产生文字或标题来解释它在该图像中看到了什么,不过“诺曼”的研究团队通过让它学习大量有关死亡、尸体的内容,让它彻底走上了邪恶之路。

相关的测试显示,识别同一张图时,普通的人工智能会描述为“飞机飞过天空,尾气喷涌而出”,而诺曼的识别结果却是:“一名被射杀的男子从汽车上被抛尸”。

测试图

不过,麻省理工学院作为全球最领先的学术殿堂之一,并不是真的要把恐怖片的情节搬到现实生活中,他们的目的是向全世界预警:人工智能技术的发展需要有基于道德层面上的边界,让它不受带有偏见的数据影响。

对此,互联网专家王越认为,人工智能的下一个阶段应该是让技术有人性。

王越:大家现在似乎普遍认为算法是正确的、是数据有问题。我觉得其实应该是说现在AI技术还存在缺陷,它的算法本身就不健全,它不能抵御坏的数据,不好的、垃圾、不营养的东西进来。所以现在有一种业界的观点说,技术是中性的,算法是无罪的,其实我觉得是有问题的,人工智能的下一个阶段应该是让技术有人性。

人工智能作为新鲜的技术,发展得飞快,但是也正因为人工智能和人类生活密切相关而存在伦理边界不清晰,法理约束不明确的问题。而这也是为什么中国科协主席万钢在今年两会的记者发布会上强调,要积极应对人工智能可能对伦理和隐私带来的挑战。

万钢:我们要加强政策法规的研究,我们要积极地应对人工智能发展可能对社会伦理、就业结构、个人隐私、国家安全各方面的一些挑战。在人工智能的重大规划中,我们要把自然科学的研究和社会科学的研究紧密结合起来,从自然科学的角度要攻克基础的难关,在社会科学研究中要解疑释惑,为和谐发展提供动力。

不止是此次“诺曼”的诞生让世界感到担忧,此前,微软也曾推出过一款人工智能Tay但却被迅速下线,原因正是因为经过网友的教唆,Tay变成了一名种族主义者,开始捍卫白人至上主义,彻底被人类教坏。

技术向前的一小步虽然背后有着人类文明的一大步,但王越表示,一旦被别有用心的人利用,那么技术就有可能让一些人的生活陷入万劫不复的境地,如果上升到国家安全,那么后果更是不堪设想。

王越:就像核能一样,它本身没有太大的问题,但是如果它威胁到人类的话,作用就太大了。比如说恐怖分子,他可能也会去考虑应用。同样的,我们各国军队也会有这样的考虑,为了防范恶意的进攻也好,为了主动做一些防御准备也好,这种AI的军备竞赛可能都已经在逐步展开了。

其实无论是给人带来便利的“白天鹅”,还是阴郁的“黑天鹅”,人工智能技术的研发在取得进步的同时也确实值得业界深思。即便是对于机器而言,一切的决策只是0或者是1,但是对于整个人类文明而言,拥有正确价值观、有人性的人工智能或许才能为我们的地球村带来科技之光。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180709A1LG2F00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券