首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

在某些情况下,谷歌的人工智能变得“激进”

据报道,人工智能(AI)已经学会采用“高度侵略性”的策略,在它感觉即将输掉一场模拟游戏时。虽然这听起来有点吓人,但这项研究却与调查一个更大的社会问题有关,这个问题更吸引人,也更有启发性。

谷歌的内部人工智能、机器学习和神经网络开发团队目前正在研究一些真正意义非凡的项目:从AlphaGo Zero,到在短短几天内学会了3000年围棋战术的人工智能,到自动化系统,一个能够自动纠正人工智能“孩子”的系统,这些“孩子”被设计用来执行特定的任务。

DeepMind是其收购的人工智能研发团队之一,该公司在2017年发表了一篇论文,并附上了一篇博客文章,描述了他们在其中一个神经网络上运行的新测试。

首先,他们复制了人工智能,并将两个版本分别放到了红色和蓝色两组。他们用虚拟激光武装他们,并将他们置于一个充满绿色“苹果”的虚拟环境中,他们的任务是收集更多的苹果,同时互相攻击。

当有足够多的苹果时,两者的数量大致相等,而且比较平静。当资源稀少时,他们往往会互相攻击。

简而言之,当形势严峻时,人工智能对那些有同样目标的人采取更积极的行动,以确保其至高无上的地位。奇怪的是,更大更复杂的——也许更智能的——AIs更有可能攻击他们的竞争对手,而不是更小、更简单的中立网络。

然而,这项研究比单纯的攻击性更复杂:这是对合作进化的一种洞察。

第二个实验,红色和蓝色必须捕获的移动形式的猎物。,他们可以合作或竞争。

研究指出:“这些实验中出现了两项合作政策。”他们要么先遇到并追赶他们的目标,要么一个人首先发现并等待其他人追赶。在这种情况下,更复杂的人工智能学会更快地合作。

这两款游戏都是“囚徒困境”的版本,这是战略游戏的一个典型例子,它证明了为什么,即使最好让两个玩家合作,他们有时也会选择不这样做。游戏设计的一般道德是,两个为自身利益行事的人并不总是为他们中的任何一个带来有利的结果 - 而且这项研究利用人工智能而不是人们来研究这个概念。

他们发现,在现实生活中类似于第一场比赛“收集”的情况下,需要较少的协调,合作更容易学习。以第二场比赛为代表的“狼群”场景需要更多的合作,而且合作难度更大。

然而,成功并不仅仅取决于简单的策略。这项内部研究清楚地表明,环境条件 - 稀缺性和资源类型以及感知风险 - 引发不同的合作或基于叛逃的反应。

关键是,将来,当AI负责影响真实世界的事情时,即使您给出一个简单的目标,也不能认为它会与其他系统合作或竞争。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180403A1K28Y00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券