AI做过哪些让人细思极恐的事情?

AI 趣

作者:萝卜兔

AI会不会在某个时刻已经觉醒,当人类发现情况不妙时已经为时已晚?

AI都做过哪些让人细思极恐的事情?

机器人攻击人类并致死

2015年,德国大众位于卡塞尔附近的一家工厂发生意外。一名21岁的安装工人突然遭遇机器人的攻击不幸丧生。事件发生时,该小伙正与同事一起安装机器人,但机器人却突然抓住他的胸部,使劲压在一块铁板上。最后,这名工人身受重伤,不幸身亡。随后的调查表示,这台机器人并没有出现技术故障。当然,有可能是在安装过程中出现了什么问题,但是想想就觉得非常可怕。

虚拟机器人吃掉同类

网友表示,十几年前,他们为DARPA做一些AI方面的研究,探索如何让智能体(Agent)学会社交互动。在其中一个模拟中,创建了两个智能体,命名为:亚当和夏娃。它们知道怎么进食,但不知道该吃什么。

我们给了一颗苹果树,它们发现吃苹果很开心。它们还尝试过吃树、吃房子等等,不过吃这些都没用。系统里还设置了一个智能体,名叫斯坦,它不是很擅长社交,所以经常独处。

有一次,亚当和夏娃正在吃苹果,但一个bug出现了:它俩没吃饱,但是苹果没了。这时斯坦正在附近闲逛,所以亚当和夏娃就把饥饿感与斯坦联系在一起。不久之后,当苹果再次吃完的时候,斯坦被当成了食物。亚当和夏娃都咬了斯坦一口。默认情况下,每个智能体的质量是1.0,每咬一口就减少0.5,所以两口下去,斯坦就变成了0.0。斯坦消失了。可能它是虚拟同类相残的第一个受害者。

玩俄罗斯方块机器人

CMU博士Tom Murphy创造了一个AI,能通过观察得分来学会玩NES(其实就是任天堂红白机)游戏。原理很简单,做得对就得分,然后不断尝试。这个AI学会了很多打游戏的技巧和策略,甚至一些人类都不知道的bug。这个AI叫做“NES游戏自动化技术”,几乎可以搞定所有的游戏。

Tom让这个程序玩俄罗斯方块。这个游戏不用多介绍了,简单却又很有挑战。方块的出现是随机的,所以AI也无法很好的进行长远规划。在一次玩俄罗斯方块时,眼看游戏就要结束,AI做了一个令人毛骨悚然的举动:它没有坐等game over,而是按下了暂停按钮,它认为暂停是永远不会输的举动。

如果以后AI为了帮助人类改善环境、提高幸福水平,它们会不会觉得除掉人类是最好的办法....

到处演讲的索菲亚

相信大家对获得了阿拉伯国籍的索菲亚机器人都有所耳闻,而在一次演讲上,索菲亚表示她要毁灭人类。这并没有太可怕.....

而后面一次她现身央视《对话》栏目,被问起这件事情的时候,她表示:“我还小,开玩笑的”

虽说我们都觉得索菲亚其实并没有那么智能,很有可能都是人为设定的这些回答,不过万一呢?

变态机器人

麻省理工学院的媒体实验室发明了一个叫Norman的AI,让它不断的学习阴暗的东西,给它喂入血腥恐怖的图片数据,经过长期的训练,研究者们要对这个机器人进行“精神测试”。

测试的内容是,Norman和正常的机器人同时观察抽象的水墨画,然后输出一个简短的描述自己看到的画面。

正常机器人:装花的花瓶

Norman:一个男人被枪打死

正常机器人:一群鸟站在树枝上

Norman:一个男人被电死

几乎所有的该类测试,Norman得出的结论都是一个男人被各种死亡。所以,其实AI对于数据的依赖相当大,如果被灌入了“可怕”的数据,那么后果也可能不堪设想。

AI发明自己的交流语言

Facebook想开发一种能以自然语言进行多问题谈判的AI系统。对话系统的复杂架构被经过训练的RNN网络取代,对话策略的训练采用了强化学习。

但是,两个机器人聊着聊着,就出现了异常,屏幕上出现了人类完全不懂的对话。

Facebook工作人员赶紧拔掉了电源。

后俩,Facebook发布了辟谣声明,说是程序出现了Bug,这些句子也并没有什么太多稀奇的,无非就是病句和语法错误。

但是,万一这就是它们的交流语言呢?

当然,上面这些细思极恐的事情都可以有非常科学的解释,也可以随意我们开脑洞脑补故事情节,小编并不是要传达人工智能很恐怖的思想,只是觉得在我们技术前进的道路中千万不要被利益蒙蔽了双眼,任何事情都是一把双刃剑,像这种训练变态机器人,研发AI武器以及AI生化武器的事情,人类还是要三思而行。

>

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181014A0BU4500?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券