展开

关键词

刚刚,Facebook开源了AI

前几天,我们报道了2018AI大赛。 在这个大赛里,来自Facebook AI Research团队的AI程序CherryPi,获得了亚军的好成绩,仅次于纯靠规则的三战队。 CherryPi背后就是这个TorchCraftAI,这是一个平台,你可以在此基础上构建智能体,并学习如何打《:母巢之战》。 TorchCraftAI中包括: 用于构建智能体的模块化框架,这些模块可被修改,也可以被机器学习、强化学习训练的模型取 CherryPi,一个可以打的bot 一个支持完整游戏、迷你游戏的强化学习环境 ,以及教程 支持与和BWAPI的TCP通信 支持Linux、Windows和OSX系统 ? FAIR团队说,他们受益于AI社群,现在能通过开源的方式回馈也非常自豪。 有兴趣的朋友,趁周末搞起来吧~ — 完 —

29020

谷歌免费GPU训练2AI好难?你需要份debug指南

分享出去,是相对简单的事。但我认为,对于全球训练II AI智能体的研究群体来说,更有价值的是告诉他们,怎样用谷歌免费的GPU,在谷歌Colab跑起来II的AI。 没想到,下载完II和安装上必要的数据库之后,遇到这茬: ? Return是啥玩意儿 看来得先搞清楚Return是个啥。 我翻出PySC2 source看了下,找到了设置Return的部分。 ? 进一步挖掘,发现poll()这一块是源自Python的subprocess模块。这说明11是终止程序的信号。 第一个可能的原因:没找到必需的数据库 刚开始我猜,作为一个游戏,应该是要一些OpenGL里的函数以及库。而这些东西在谷歌Colab里没有。 为了验证这个假说,这次我本地运行了II。 然后,除了一些错误的提示信息,II现在可以跑起来了。这会儿总算可以开始训练II的AI了。 我写了份针对谷歌Colab的bug文档,这样以后大家遇到类似问题就不用再纠结了。

22330
  • 广告
    关闭

    90+款云产品免费体验

    提供包括云服务器,云数据库在内的90+款云计算产品。打造一站式的云产品试用服务,助力开发者和企业零门槛上云。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    RTS人工智能研究的历史

    1998年 “1”发行 “”于1998年3月发行,同年11月发行了“扩张包”。“”成为全球热门游戏,并在韩国引发了专业的游戏场景。 他们还提出开发一个开放源的RTS游戏引擎,可供AI研究机构使用。 ? “”中的状态估计 2004年 ORTS发布 第二年,Michael Buro发布了开源RTS引擎ORTS的第一个版本。 2008年 第一次“AI研究” 虽然之前在“”上发表过一篇文章,但是我知道的第一篇关注于为“”开发人工智能的文章发表于2008年。 中的构建顺序预测 2009年 Brood War API发布 2009年,我发现了一个名为BWAPI(Brood War API)的谷歌项目,它提供了对的程序化访问。 加州大学伯克利分校主教团队 2011年 第二届AIIDE大赛阿尔伯塔 大学的戴夫·丘吉尔获得了第二届及以后迭的AIIDE赛的所有权。

    62140

    DeepMind联手暴雪:II的玩家们,准备好对抗AI了吗(附论文)

    但是不可否认,不管对于玩家圈还是AI圈来说,这都是一件大事情,因为远比像围棋这样的游戏更接近现实世界。 后台回复“” 即可获得DeepMind相关论文 ? 搞定可能需要十只升级版阿尔法狗 II是史上最大和最成功的游戏之一,它们见证了许多玩家从青葱岁月到为人父母的20多年。 DeepMind为什么在围棋之后选择 拥有丰富多彩的游戏环境和战术体系,这是AI研究的理想环境。 这可以确保研究者们可以得到大量的回放数据以供学习,也可以为AI理提供大量极具天赋的对手。 II的玩家在同一时间可能有300多种基本行动可以选择,因此策略集及策略选择也对AI构成了巨大的挑战。 暴雪承诺将持续发布从“II”天梯中收集的数十万个匿名录像,这会将训练变得更加容易。 这不仅可以让研究人员训练可监督的理来进行游戏,还可以打开其他有趣的研究领域,如序列预测和长期记忆。

    31530

    Facebook的CherryPi团队开源平台TorchCraftAI

    TorchCraftAI是一个平台,可以让你建立智能体学习玩《:母巢之战》。 TorchCraftAI包括: 用于构建理的模块化框架,其中模块可以被其他模块攻击,替换为其他模块,或者由ML / RL训练模型 CherryPi,玩游戏的机器人(2017年SSCAIT 冠军,AIIDE 2018亚军) 完整游戏,迷你游戏,模型和训练循环的强化学习环境 TorchCraft支持与和BWAPI的TCP通信 支持Linux,Windows和OSX 教程 1.建筑物安置 在中,建筑物需要经济发展,例如收集资源或生产特定单位类型的能力。从整体决定用什么建筑,在哪里放置它带有一定的战略意义。 我们来看看CherryPi中使用的BuildingPlacer模块。 torchcraft.github.io/TorchCraftAI/docs/microtut-intro.html) 将使用Evolution Strategies开发一个用于微观管理场景的模型,微观管理是在战斗情况下控制你的部队,这是胜利的关键组成部分

    66510

    开源2多智能体挑战smac

    转自:专知 SMAC是Github上的一个用于在暴雪2上进行多智能体协同强化学习(MARL)的环境。 SMAC用了暴雪2的机器学习API和DeepMing的PySC2为智能体与2的交互提供了友好的接口,方便开发者观察和执行行动。 ---- https://github.com/oxwhirl/smac 安装SMAC pip install git+https://github.com/oxwhirl/smac.git 另外, 示例 ---- 在下面的中,独立的智能体在接收到观察和全局状态后会执行随机策略。

    73220

    DeforGAN:用GAN实现开全图外挂!

    选自arXiv 作者:Yonghyun Jeong等 机器之心编译 参与:李诗萌、Geek AI 对于广大迷来说,地图全开作弊「Black sheep wall」应该是再熟悉不过了! 日前,韩国三公司的研究人员在游戏中,将预测战迷雾背后的作战单位信息建模为了一个部分可观察马尔科夫决策过程,并使用基于 GAN 的方法实现了当前性能最佳的战迷雾去雾算法。 ? 本文使用作为实验场景——这是一款 RTS 游戏,游戏中有三个均衡的种族供玩家选择,玩家要建立完全不同的游戏风格和战略。在发行逾二十年后,依然是一款非常受欢迎的电子竞技游戏。 在中,这样的目标是很难实现的。因为长期以来一直广受欢迎,玩家们开发出了各种各样的成熟的游戏策略,除此之外,在电竞现场和暴雪战网(Battle.net)中玩家们还广泛使用了微操技术。 为研究与 Game AI 相关的复杂 POMDP 问题提供了一个绝佳的平台。本文作者利用生成对抗网络,建立了 DefogGAN,它可以根据生成的逼真信息准确预测隐藏在战迷雾中的对手的状态。

    27610

    2-数据编辑器-菜鸟入门

    Tutorial by Siretu 让大多数接触2编辑器的人歇菜的原因, 就是这个数据编辑器(Data Editor). 不管你是个新手, 还是使用魔兽3的编辑器做过一些东西, 当你怀着满腔的热情准备做一张2的地图时, 数据编辑器就像挡在前面的一座大山, 让人恨不得撞死算了. 这种情况同样发生在我身上. 这个教程里我只说一些基础, 不会做一些实的东西. 想学那些的, 看后面的教程去. 比如在魔兽3中改技能提示是在Ability中, 而2则是在Button中. Button包含标题, 提示, 快捷键等. 上面的图都说了些啥呢?

    21520

    人类玩 DOTA2 能赢,是因为 AI 是暴雪爸爸教的

    ORTS 的通信协议和源全部对外开放,用户可以免费访问大量地图、模型、军队数据等,远程构建 AI 控制器,用于训练 AI 模型。 ? 2011 年,随着参赛者越来越多,为保证比赛公平性,AIIDE 要求 AI 玩家必须公开源,所有比赛都将在基于 C/S(客户/服务器模式)架构的服务器上进行。 ? 如今,AIIDE 仍在继续举办「」AI 竞赛,希望借此鼓励更多人参与研发「」AI 模型,以推动 AI 发展。 即便 AI 在「」竞赛中不断进步,在很多其他游戏上的表现也要优于人类,但在「」人机对战上,截至目前,人类的水准依然可以完胜 AI 。 Google DeepMind 推出「2」官方 API 2017 年 8 月,DeepMind 正式宣布跟暴雪公司合作,联合推出「 Ⅱ」官方 AI API——SC2LE(译作:

    27230

    单机《2》AI,不用GPU集群,支持多种训练环境

    上周结束的 AI Challenger 竞赛,让 AI 挑战这个议题又稍稍火了一把。虽然这届冠军使用的仍然是硬编方法,但从其他解决方案中不难看出,AI 算法的占比在不断提升。 作为围棋之后 DeepMind 公开宣布的下一个攻克目标,《》的魅力可见一斑。而随后不久 DeepMind 便将其相关研究及平台开源,更是印证了让 AI 玩的挑战。 今天,塔尔图大学的 Roman Ring 在 Github 上开源了他倾力投入一年半的成果,一个名叫 Reaver 的《 II》AI,可用于训练《 II》的各种基本任务。 对于经验丰富的研究人员,Reaver 提供简单但性能优化的库,而且都是模块化架构:智能体、模型和环境都是分开,并且可以随意组合调换。” 欢迎加入强化学习阵营。 单机友好,可用于训练II各种任务 Roman Ring 列出了 Reaver 在《 II》各种小型游戏上与其他 AI 的性能对比。其中, ?

    38130

    资源 | CommandCenter:基于暴雪官方API的2 AI Bot

    选自Github 作者:David Churchil 机器之心编译 参与:李泽南 随着暴雪与 DeepMind 在系列游戏上的合作不断推进,人工智能领域的研究者们也正在将目光由 20 年历史的转向更为 「现化」的 2。 项目地址:https://github.com/davechurchill/commandcenter CommandCenter 是一种 2 的 AI bot,它由 C++编写,使用了暴雪提供的 作为 2 为数不多的 bot 之一,CommandCenter 基于 UAlbertaBot 架构( bot),旨在提供一种稳固、易于使用且能够快速设置的架构,让使用者可以与之对战, 注意:MapFile 选项与 2 的地图目录相关,默认的地址是 2 安装地址/maps/,你必须制定合法的地图文件。

    571140

    Deepmind AI在《2》血虐99.8%人类,登顶宗师段位

    新一AI何以登顶2战网天梯宗师? RTS游戏中,电脑AI=人工智障? 对于大多数游戏玩家来说,游戏内置的电脑AI,似乎都是一个笑话,更应该被称为“人工智障”。 为何专注于攻克2? 从1到2,这款RTS神作一直被列为世界电子竞技的核心项目之一。 ? 他们对感兴趣是因为它足够复杂,可以模拟现实生活。 用AI打的风云人物、纽芬兰纪念大学计算机科学教授David Churchill曾说,“太复杂了。 血洗顶尖职业选手 训练AlphaStar只花了44天,DeepMind估计这相当于每个AI理都玩了200年2。然后它就击败了99.8%的人类。

    24310

    体量大十倍,Facebook开源史上最大AI研究数据集

    7 月初,田渊栋等人开源了基于的人工智能游戏平台(参见:Facebook 开源游戏平台 ELF,简化版《》完美测试人工智能)。 首先, Replay 的重建速度有限,这意味着训练速度会受到限制;由于游戏的版本更迭,不同版本游戏的 Replay 与游戏无法互相兼容,这限制了可用数据的数量;最后,游戏录像的重建只能在 有效性:该数据集需要能够玩家的正常水平,对战两方都不能消极比赛。 易接入性:用户应该可以轻松使用该数据集替游戏引擎来使用游戏中的状态数据。 考虑到以上要求,Facebook 的研究人员构建了用于人工智能研究的新一数据集 STARDATA。它相比于此前类似的数据集体量大上十倍,其中包含了大量不同的对战形式、统计数据、地图等等。 一个人可精确使用相同的从数据集中读取数据并控制

    68460

    北大教授用《II》玩警察抓小偷? 对抗性理强化学习模型教AI如何逃跑!

    近日,北大教授在一篇预印本论文中提出了一个基于《II》的全新强化学习训练环境。 作为一款极为经典的即时战略游戏,暴雪开发的《II》也是强化学习训练最喜爱的训练环境之一。 ,以及通过扩展当前的《》小游戏进而开发了一个对抗性理挑战(SAAC)的环境。 因此,当使用《II》PySC学习环境时,所有的理行动都必须被设计为遵循人类玩家的操作/行为习惯。 现有强化学习环境的结构 DeepMind的游戏(a):一个理与《II》提供的学习环境进行互动,控制追击者以使未来的奖励最大化,而《II》的内置脚本则控制逃逸者。 对抗性理测试的结构 来自《II》训练环境的两个接口分别向追击者和逃逸者输出观察结果(特征图等)。 逃逸者(理1)采用四层全连接的卷积网络结构。追击者(理2)采用了先前工作的理。

    9410

    谷歌宠儿 AlphaGo 将对战暴雪《 2》

    近日,暴雪娱乐制作总监 Tim Morten 在 WCS 中国站决赛上宣布,《 2》将正式迎战谷歌人工智能程序 AlphaGo,但具体细节还没有确定,双方还在沟通中。 但是游戏玩家们表示,战胜围棋不算什么,如果这款人工智能在与《 2》的对战中获胜,那才叫厉害,毕竟这款 RTS 的上手难度很大,想要战胜何其困难。 Tim 表示,谷歌方面对挑战《 2》这个项目很有兴趣,但后续的细节还没完全定下来,双方正在积极洽谈中。 对于看好哪一方,Tim 认为《 2》获胜的可能性比较大,因为《》主要的游戏技巧重在资源,玩家用采集的资源建造不同的建筑、军队并进行升级,而且《 2》的特点是无法提前看到下一步,所以人类的优势比机器要大的多 至于会选哪个玩家表《 2》对战 AlphaGo,暴雪方面表示,他们希望能够找到一个可以表《 2》最高水平的冠军选手与 AlphaGo 对战。

    24190

    学界 | 学习顶级玩家Replay,人工智能学会了的「大局观」

    去年,DeepMind 也在围棋之后把注意力转向了 2,这家属于谷歌的公司认为该游戏相比国象棋与围棋更加接近「复杂的现实世界」。 将训练好的模型放入 UAlbertaBot 开源 bot 中,替原有的生产决策模块。 为了压缩文件尺寸,的 Replay 包含了对战双方的所有指令,这同时也为神经网络的训练带来了便利。在训练中,Relplay 文件中的玩家动作状态被编为归一化值的向量。 此外,这种方法不仅可以适用于系列,也可以直接适用于其他 RTS 游戏。 据我们所知,这是第一次有人通过的 replay 让计算机直接学会大局观。

    51360

    【重磅】DeepMind进军2,谷歌Facebook打响通用AI战

    【新智元导读】7日,Facebook刚刚宣布开源史上最大的《》游戏数据集STARDATA。今天(10日)DeepMind在官方博客上宣布开源2 研究训练平台SC2LE。 AI 巨头挑战的角逐愈演愈烈。乌镇围棋峰会上,DeepMind CEO 哈萨比斯曾说,将成为AI进步的下一个大考验。 此后,《》的制造公司暴雪娱乐建造总监 Tim Morten 对媒体确认,AlphaGo 将挑战《2》。 DeepMind 论文: 2,强化学习的新挑战 ? 随着深度加强学习(DRL)的蓬勃发展,研究人员开始借助增强后的学习能力,着手解决多理协作问题。 Fortune报道称,DeepMind的目标是让计算机击败最顶级的人类玩家。

    60940

    AI 6 年简史:通用人工智能角斗场,DeepMind确认应战

    此后,《》的制造公司暴雪娱乐建造总监Tim Morten对媒体确认,AlphaGo 将挑战《2》。 《》(StarCraft)是一款即时战略游戏。 下文现在将详细介绍每个主要的大赛,每场比赛将按时间顺序进行讨论,同时还有完整的比赛结果以及 bot 源的下载链接。 为什么是1而不是2? 一个原因是降低进入未来比赛的障碍——由于编程 AI Bot非常耗时,未来的参赛者可以下载和修改以前Bot的源,以节省大量的精力。 最后的原因是希望通过允许未来的Bot检查其源来借鉴以前的Bot的策略和技术,来帮助推进中的最新技术——理想情况下,未来比赛中的所有Bot应至少与上一年参赛的Bot一样强大。 比赛采用了与 AIIDE 2011 赛事相同的规则,玩带有迷雾的游戏,不允许作弊。两大规则的差异在于,CIG 比赛没有强制执行开放源要求,5张地图的地图池没有提前提交给参赛者。

    1K70

    【实战】重现DeepMind强化学习算法

    【新智元导读】本文主要介绍DeepMind的强化学习算法,由于原论文作者没有开源他们的,所以我们尝试重现论文中的结果,并且达到了DeepMind基准80%左右的结果。 给大家一个传送门:迈向通用人工智能:2人工智能研究环境SC2LE完全入门指南(https://zhuanlan.zhihu.com/p/28434323),按照教程相信大家可以对PySC2的API 笔者发现,由于输出的动作空间巨大,所以这也是2的难点所在。 直接运行测试 首先,从Github上拷贝源并从这里下载预训练好的模型,并安装依赖库pysc2和tensorflow,就可以运行测试了: git clone https://github.com 笔者在重现过程发现,2的动作空间巨大奖励却很稀疏,总结一句话,完全基于学习的2智能体真的好难啊。 已经开源,欢迎一起讨论学习。

    1.5K50

    相关产品

    • 腾讯云代码分析

      腾讯云代码分析

      腾讯云代码分析(TCAP),用心关注每行代码迭代、助您传承卓越代码文化!精准跟踪管理代码分析发现的代码质量缺陷、代码规范、代码安全漏洞、无效代码,以及度量代码复杂度、重复代码、代码统计。

    相关资讯

    热门标签

    扫码关注云+社区

    领取腾讯云代金券