首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Dota之后,《王者荣耀》也被AI攻陷,势把人类顶级玩家拉下马

---- 新智元报道 来源:arXiv 编辑:三石、大明 【新智元导读】腾讯AI Lab团队在arXiv发表论文,通过对AI进行训练,并与《王者荣耀》顶级人类玩家PK,最后获得了48%...19日,腾讯AI Lab团队在arXiv发表文章,训练AI大战人类玩家,而此次所选择游戏,正是火遍大江南北——《王者荣耀》。...在与顶尖人类玩家大战250回合之后,取得了48%! AI“杀戮”王者峡谷 近年来,微观层面的操作取得了很大进步,但宏观战略完整解决方案仍然缺乏。...围棋和MOBA游戏计算复杂度比较 MOBA游戏中AI宏观战略架构 我们设计MOBA AI宏观战略模型动机源于人类玩家如何做出战略决策。...在MOBA游戏中,经验丰富的人类玩家完全了解游戏每个阶段,例如开局阶段,推线阶段,游戏中期和游戏后期阶段。在每个阶段中,玩家都会关注游戏地图,并根据英雄位置做出相应决定。

51830

游戏数据处理

= 激活且登录量 / 激活码激活量 激活且登录应用场景 激活且登录是非常常用转化指标之一,广泛用于端、手。...、外部宣传资源作为游戏初期市场推广,以收集游戏封测数据,这其中主要就是留存 无论是端还是手,都非常重视这一指标,留存成为衡量产品质量重要指标之一,用以判定游戏基本品质,为后续市场资源调配提供参考...贡献:观察每个职业在比赛中表现,比如胜利贡献、击杀数等指标,以评估其对团队影响。...地图分布:分析不同职业在各个游戏地图活动热点,例如在哪些位置进行开枪、购买武器等行为。 道具和武器使用:研究不同职业偏好枪械类型及其使用效果,如突破手倾向于使用AK47或Tec9。...玩家技能评级:根据个人rating和团队配合情况来评价狙击手和突击手技能水平及对团队贡献。 用户付费指标 游戏行为数据用户付费指标是评估玩家在游戏中消费行为关键数据点。

14121
您找到你想要的搜索结果了吗?
是的
没有找到

腾讯绝悟AI完全体限时开放体验,研究登上国际顶会与顶刊

团队第二个目标,就是为“绝悟”找到一个能排兵布阵AI教练,也就是在游戏BP环节(禁选英雄)最优策略。 ? 绝悟 vs 人类BP测试 简单做法是选择贪心策略,即选择当前最高英雄。...要提到是,围棋等棋牌类游戏结束就能确定胜负,但 BP 结束只到确定阵容,还未对战,所以胜负未分。因此团队利用绝悟自对弈产生超过3000万条对局数据训练出一个阵容预测器,用来预测阵容。...进一步预测器得到阵容被用来监督训练估值网络。 除了常见单轮 BP ,AI 教练还学会了王者荣耀 KPL 赛场上常见多轮 BP 赛制,该模式下不能选重复英雄,对选人策略要求更高。...训练后 BP 模型在对阵基于贪心策略基准方法时,能达到近70%,对阵按位置随机阵容更接近90%。 至此,绝悟前有多个强兵,后有军师辅佐,不折不扣一代宗师终于练成了。...研究方法论看,监督学习对于AI智能体研发有很高价值。首先,通过挖掘人类数据预测未来监督学习是通常是研发游戏 AI 第一步,并在众多视频游戏取得良好效果。

1.3K30

强化学习(1) | 夺旗行动:复杂合作角色出现

掌握多人电子游戏中策略、战术理解和团队合作是人工智能研究一个关键挑战。...我们选择第一人称多角色3D视频游戏为平台来研究这个问题。...这一复杂性,使第一人称多角色游戏成为AI社区里富有成果且活跃研究领域。在本研究中,我们仅关注Quake III Arena游戏(我们进行了外观调整,但整个游戏机制保持原样)。 ?...FTW角色学会变得比强基线方法强大得多,并超过人类玩家。事实,在一项对参与者调查中,他们被评为比人类参与者更具合作精神。 ?...这些反应延迟AI代理表现仍然优于人类玩家者,高手玩家获胜几率仅为21%。 ? 人类玩家对反应延迟代理较低,这表明即使人类反应延迟程度相当,代理也高于人类玩家。

68640

Dota之后,《王者荣耀》也被AI攻陷,势把人类顶级玩家拉下马

19日,腾讯AI Lab团队在arXiv发表文章,训练AI大战人类玩家,而此次所选择游戏,正是火遍大江南北——《王者荣耀》。 ?...在与顶尖人类玩家大战250回合之后,取得了48%! AI“杀戮”王者峡谷 近年来,微观层面的操作取得了很大进步,但宏观战略完整解决方案仍然缺乏。...在视觉方面,团队提取了85个特征,例如所有单位位置和生命点,然后将视觉特征模糊为12*12分辨;在属性方面,团队提取了181个特性,如英雄角色、游戏时间、英雄ID、英雄金币和等级状态以及死亡、助攻量统计...围棋和MOBA游戏计算复杂度比较 MOBA游戏中AI宏观战略架构 我们设计MOBA AI宏观战略模型动机源于人类玩家如何做出战略决策。...在MOBA游戏中,经验丰富的人类玩家完全了解游戏每个阶段,例如开局阶段,推线阶段,游戏中期和游戏后期阶段。在每个阶段中,玩家都会关注游戏地图,并根据英雄位置做出相应决定。

56240

学界 | DeepMind 在多智能体强化学习方面又有了新进展,最新成果登上 Science 杂志!

智能体在多玩家电子游戏中掌握策略、理解战术以及进行团队协作是人工智能研究领域重大挑战。...早先一场测试比赛,对战双方是人类 CTF 玩家和受过训练其他人类玩家和智能体。 FTW 智能体通过学习变得比强基线方法强大得多,并且超过了人类玩家。...尽管如此,这些带有反应延迟智能体仍然比人类玩家表现要好:人类玩家中强者在智能体面前只有 21% 。 ?...人类玩家在反应延迟智能体面前,其也很低,这说明即使反应延迟时间与人类相当,智能体也比人类玩家表现好。...【注:微信只能插入三个视频,敬请扫描二维码查看】在另外两个「Quake III Arena」多人游戏模式下完整版锦标赛地图上进行游戏智能体:「Future Crossing」地图收割者模式,以及

49630

不服SOLO:腾讯绝悟AI击败王者荣耀顶尖职业玩家,论文入选AAAI,未来将开源

基于腾讯天美工作室开发热门 MOBA 类手《王者荣耀》,腾讯 AI Lab 正努力探索强化学习技术在复杂环境中应用潜力。...据介绍,此技术支持了腾讯此前推出策略协作型 AI「绝悟」1v1 版本,该版本曾在今年 8 月上海举办国际数码互动娱乐展览会 China Joy 首次亮相,在 2100 多场和顶级业余玩家体验测试中达到...在主屏幕中,左上角 A 为小地图、右上角 B 为控制面板、左下角 C.1 为移动控制、右下角 C.2 为技能控制。实验表明,AI 智能体能在多种不同类型英雄能击败顶级职业玩家。...需要强调,本论文关注是 MOBA 1v1 游戏而非 MOBA 5v5 游戏,因为后者更注重所有智能体团队合作策略而不是单个智能体动作决策。...在 2019 年 8 月份,王者荣耀 1v1 AI 对公众亮相,与大量顶级业余玩家(Top 1%)进行了 2100 场对战,AI 达到惊人 99.81%,在 5 个英雄都保持绝对。 ?

1.2K30

腾讯云游戏多媒体解决方案

那么,《QQ 炫舞手》背后视频到底是什么呢?今天这篇文章将揭开音视频神秘面纱。...腾讯音视频实验室 说到音频,就不得不说腾讯音视频实验室了,腾讯音视频实验室,成立于2010年,八年间专注于音视频通信技术前瞻性研究,包括全球实时音视频网络优化、音视频编解码前沿算法研究、计算机视觉图像处理...国战游戏 国战游戏中典型代表为 MMORPG,此类游戏中涉及团队副本、组队、帮派、国战指挥等多种玩法,对语音时延要求也较高,腾讯云游戏多媒体引擎针对此类场景,实现实时自动上下麦及超低时延语音通话,高度适配超多人在线国战类游戏玩家语音通话需求...狼人杀 目前,桌类游戏狼人杀已经从传统饭局延伸到了互联网,在狼人杀游戏中,玩家在开始前热场寒暄,在进行中按顺序发言,在结束后,盘点和回顾,这些环节,都离不开实时语音乃至视频交互。...社交媒体已经有很多用户基于这种语音模式,创作了很多趣味视频。 而引入3D位置语音之后,玩家在喊话过程中会暴露自己方位和位置信息,玩家声音也会根据位置变化而实时改变。

2.9K80

【DOTA之后新里程碑】DeepMind强化学习重大突破:AI在多人射击游戏完人类!

CEO Hassabis在Twitter分享:“我们最新工作展示了智能体在复杂第一人称多人游戏中达到人类水平,还能与人类玩家合作!” ?...虽然Hassbis在Twitter里说他们AI“达到了人类水平”,实际,从实验结果看,他们AI已经超越了人类:在与由40个人类玩家组成队伍对战时,纯AI队伍完纯人类队伍(平均多抢到16面旗...分析发现,游戏中,AI在“tagging”(碰触对方,将其送回地图初始地点)比人类更加高效,80%情况下能够成功(人类为48%)。...掌握策略,理解战术和团队合作 在多人视频戏中掌握策略、战术理解和团队合作是人工智能研究关键挑战。...在比赛中,人类和智能体都是随机配对——可以作为敌手或者作为队友。 ? 一场早期测试比赛,由人类与训练好智能体一起玩CTF。 FTW智能体学会比强大基线方法更强,并超过人类玩家

55400

王者荣耀AI绝悟如何选英雄?腾讯AI Lab新研究揭秘

研究者在大热 MOBA 手《王者荣耀》中检验了该方法,结果表明:相较于其它当前前沿方法,JueWuDraft 实用性和有效性都更胜一筹。...另外,我们也见证了 AI 智能体在其它游戏类型成功,包括 Atari 系列游戏和夺旗游戏等第一人称射击游戏(FPS)、《任天堂明星大乱斗》等视频游戏、扑克等纸牌游戏。...在 MOBA 游戏中,每个英雄都有独特技能和能力。每支队伍 5 个英雄技能和能力综合起来即为该团队整体实力。另外,英雄彼此之间还存在复杂压制和互补关系。...图 6:网络架构:(a) 是预测器,(b) 是策略和价值网络 预测器 在选择英雄阶段,只能得到阵容信息,胜负信息是未知。作者采用了预测器来预测阵容并将其作为奖励函数。...其中第二局和第三局中 JueWuDraft 比第一局更高。具体来说,在第一局中,JueWuDraft 先手选择了成吉思汗而不是平均最高刘备,尽管首先选择刘备可能会在第一局得到更高

66420

升级版“绝悟”AI自带“军师”,解禁王者荣耀全英雄池

在对战中,因为地图庞大且信息不完备,不同10个英雄组合应该有不同策略规划、技能应用、路径探索及团队协作方式,这将使决策难度几何级增加。...团队第二个目标,就是为“绝悟”找到一个能排兵布阵AI教练,也就是在游戏BP环节(禁选英雄)最优策略。 绝悟 vs 人类BP测试 简单做法是选择贪心策略,即选择当前最高英雄。...要提到是,围棋等棋牌类游戏结束就能确定胜负,但 BP 结束只到确定阵容,还未对战,所以胜负未分。因此团队利用绝悟自对弈产生超过3000万条对局数据训练出一个阵容预测器,用来预测阵容。...训练后 BP 模型在对阵基于贪心策略基准方法时,能达到近70%,对阵按位置随机阵容更接近90%。 至此,绝悟前有多个强兵,后有军师辅佐,不折不扣一代宗师终于练成了。...研究方法论看,监督学习对于AI智能体研发有很高价值。首先,通过挖掘人类数据预测未来监督学习是通常是研发游戏 AI 第一步,并在众多视频游戏取得良好效果。

56530

DeepMind在团队游戏领域取得新突破,AI和人类一起游戏真是越来越6了

▌前言 掌握多人视频戏中涉及策略,战术理解和团队配合一直是 AI 研究关键性挑战。...为了让这件事情更有意思,在这项工作中我们考虑 CTF 游戏一种变体,其中每场游戏中地图布局都会发生变化。因此,我们智能代理必须要学会一种通用策略,而非记住某种游戏地图布局。...更重要是,该智能体学习到游戏策略对地图大小,队友数量以及团队其他玩家都是稳健鲁棒。...在早前一场 CTF 测试赛中,比赛双方是经过训练智能体与人类玩家组成队伍 经过训练学习,FTW 智能体已经比强大基线方法更强大,并且超过了人类玩家。...首先,需要注意是我们智能体有非常快反应时间及非常准确命中,这能解释它们在游戏中卓越表现。人为地减少反应时间并降低命中后,这仅是智能体获得成功其中一个因素。

36920

建一座安全“天空城” ——揭秘腾讯WeTest如何与祖龙共同挖掘手安全漏洞

在这款手推出时,我们发现,祖龙娱乐在手研发技术正变得越来越娴熟。 ?...游戏设计方面,《九州》设计了很大地图,不做任何地形限制;另外玩家在飞行过程中也能发生战斗,全方位空战体验在手中还是相对比较少见。...函数动态web效果展示 3、内存对象修改 WeTest手安全测试团队为测试人员直接展示出游戏中对象列表、对象属性名称、属性值等信息,并且可以以对象为单位进行搜索,告别传统手内存测试工具搜索“内存数值...,在工具已经支持所有腾讯在研和运营项目。...团队通过使用与正式服同样游戏客户端和服务器,模拟外挂工作室制作外挂过程,依靠自身技术积累来提高专业程度,持续保持漏洞发现

2K30

多图详解 DeepMind 超人类水准星际争霸 AI 「AlphaStar」

星际争霸 AI 普遍大量使用固定策略和手工规则,三星 bot 应用了一些机器学习技术来帮助控制单位、探索地图,开发团队也在尝试更多地应用机器学习技术。...模型从游戏接口接收数据是单位列表和这些单位属性,经过神经网络计算后输出在游戏中执行指令。...这时候 AlphaStar 就能够以 95% 打败星际争霸 2 内置「精英」级别的 AI 了。...比如在 AlphaStar league 自我对战早期,快速 rush 策略有较高;但随着训练过程持续,其它策略开始展现出更高,比如用更多工人快速扩大基地,获取更多资源后建立经济优势...)、智能体考虑点击和建造建筑地图区域示意(中下方右侧小图,这也可以理解为智能体注意力关注区域)、智能体操作输出激活情况(右下角小图)以及预测。

3K40

王者荣耀AI绝悟如何选英雄?腾讯AI Lab新研究揭秘

研究者在大热 MOBA 手《王者荣耀》中检验了该方法,结果表明:相较于其它当前前沿方法,JueWuDraft 实用性和有效性都更胜一筹。...另外,我们也见证了 AI 智能体在其它游戏类型成功,包括 Atari 系列游戏和夺旗游戏等第一人称射击游戏(FPS)、《任天堂明星大乱斗》等视频游戏、扑克等纸牌游戏。...在 MOBA 游戏中,每个英雄都有独特技能和能力。每支队伍 5 个英雄技能和能力综合起来即为该团队整体实力。另外,英雄彼此之间还存在复杂压制和互补关系。...图 6:网络架构:(a) 是预测器,(b) 是策略和价值网络 预测器 在选择英雄阶段,只能得到阵容信息,胜负信息是未知。作者采用了预测器来预测阵容并将其作为奖励函数。...其中第二局和第三局中 JueWuDraft 比第一局更高。具体来说,在第一局中,JueWuDraft 先手选择了成吉思汗而不是平均最高刘备,尽管首先选择刘备可能会在第一局得到更高

43510

AI算法龙虎榜 | 190804更新

索引 博弈对抗方向 No.1 策略协作型AI:绝悟,王者荣耀5V5战职业选手,504场1V1顶级业余玩家99.8% No.2 Pluribus算法,德扑多人无限注任务最佳表现算法 No.3 PPO-Dash...算法,2019年障碍塔挑战赛第一轮第二名 正文:博弈对抗方向 No.1 策略协作型AI:绝悟,王者荣耀5V5战职业选手,504场1V1顶级业余玩家99.8% 性能表现 | 2019年8月2日...首日504场测试中,「绝悟」测试为99.8%,仅输1场(对方为王者荣耀国服第一后裔)。...在庞大且信息不完备地图上,10位参与者要在策略规划、英雄选择、技能应用、路径探索及团队协作上面临大量、不间断、即时选择,这带来了极为复杂局面,预计有高达1020000次方种操作可能性,而整个宇宙原子总数也只是...特点分析 | 1.与之前谷歌DeepMind团队提出AlphaGo Zero算法类似,Pluribus算法核心同样是不使用人类数据或者经验,仅仅通过算法自我博弈来不断学习和提升策略

61720

学界 | DeepMind 在多智能体强化学习方面又有了新进展,最新成果登上 Science 杂志!

智能体在多玩家电子游戏中掌握策略、理解战术以及进行团队协作是人工智能研究领域重大挑战。...智能体在完整锦标赛地图另外两个「Quake III Arena」多人游戏模式下进行游戏:在「Future Crossings」地图上进行收割者模式游戏(左图),在「ironwood」地图上进行单旗夺旗模式游戏...早先一场测试比赛,对战双方是人类 CTF 玩家和受过训练其他人类玩家和智能体。 FTW 智能体通过学习变得比强基线方法强大得多,并且超过了人类玩家。...尽管如此,这些带有反应延迟智能体仍然比人类玩家表现要好:人类玩家中强者在智能体面前只有 21% 。 ?...人类玩家在反应延迟智能体面前,其也很低,这说明即使反应延迟时间与人类相当,智能体也比人类玩家表现好。

57040

OpenAI公开Dota 2论文:99.4%,「手术」工具连续迁移训练

OpenAI 也将该系统开放给了 Dota 2 社区进行对战试玩;在超过 7000 局游戏中,OpenAI Five 为 99.4%。...「Rollout」能以异步方式发送正在进行戏中数据,而不是等到整局游戏结束才发送数据进行优化。 整个系统运行在自定义分布式训练平台 Rapid ,基于谷歌云平台上。...经过十个月 770±50 PFlops/s·days 计算训练之后,其在三局两制比赛中击败了 Dota 2 冠军战队,并在持续多日在线展示中击败了 99.4% 的人类玩家。...Rerun 完成了两个 150 ± 5 PFlops/s·days 计算训练(见图 4)。这个时间跨度显著长于「手术」变化频率(每 1-2 周一次)。...Rerun 最终性能比 OpenAI Five 更好,与 OpenAI Five 最终版对战超过 98%。

87910

DeepMind新突破:雷神之锤3战场AI夺旗,团战胜超过人类

黑栗子 发自 凹非寺 量子位 出品 | 公众号 QbitAI OpenAI战队在5v5刀塔比赛打败人类,才是几天前发生事。...至少,在夺旗 (Capture the Flag) 比赛中,AI比人类高。 而且,这里比赛,比原版游戏还要复杂多变。...不过,DeepMind团队还想让情况更复杂一些,给AI更有 (bian) 趣 (tai) 锻炼。 于是,夺旗游戏地图上,发生了一些可爱改动。 各种地图,训练有素 每场比赛之间,地图都会发生变化。...稳人类一筹 训练好智能体,就做好了赢准备。 面对地图大小变化,队友数量变化,以及敌方变量,都表现出训练有素样子。 这是户外地图,红蓝双方都是AI,斗争非常激烈。...室内地图,则是AI与人类选手组成混合战队,与纯AI战队斗争。 DeepMind这次一共动用了**40个人类加入战斗,与AI随机组队。看得出他们比赛并不轻松。 最终结果,人类不及AI。

50520

机器学习预测《守望先锋》里赢家

例如低分段比赛里“半藏+黑百合”组合奇低 因此,我们挑战就是如何处理这些类别特征。如果我只用独热编码,特征空间会很容易超过几百个维度。...不幸是,几乎不可能收集到足够多游戏视频去供给维度如此之高“怪物”。 然而,这个凶神恶煞“怪物”也是可以被打败。...在本文,我会讲解如何用“嵌入”(embeddings)为游戏中角色建模,以及如何优化预测。 ? 上图为预测准确 VS 游戏进度。预测由逻辑回归、独热编码和特征选择进行建模后得出。...每局《守望先锋》游戏都是在一个特定地图上开战(不同地图里各个英雄优势体现也有所不同),队伍配置实际也是根据地图所决定,也就是 P(团队|地图)。...用贝叶斯定理重写 P(团队|地图)~P(地图|团队)P(团队)。那么可以将 P(地图|团队)建模为嵌入到地图中,如下所示: ?

64730
领券