---- 新智元报道 来源:arXiv 编辑:三石、大明 【新智元导读】腾讯AI Lab团队在arXiv发表论文,通过对AI进行训练,并与《王者荣耀》顶级人类玩家PK,最后获得了48%的胜率...19日,腾讯AI Lab团队在arXiv上发表文章,训练AI大战人类玩家,而此次所选择的游戏,正是火遍大江南北的手游——《王者荣耀》。...在与顶尖人类玩家大战250回合之后,取得了48%的胜率! AI“杀戮”王者峡谷 近年来,微观层面的操作取得了很大的进步,但宏观战略的完整解决方案仍然缺乏。...围棋和MOBA游戏的计算复杂度比较 MOBA游戏中AI的宏观战略架构 我们设计MOBA AI宏观战略模型的动机源于人类玩家如何做出战略决策。...在MOBA游戏中,经验丰富的人类玩家完全了解游戏的每个阶段,例如开局阶段,推线阶段,游戏中期和游戏后期阶段。在每个阶段中,玩家都会关注游戏地图,并根据英雄的位置做出相应的决定。
= 激活且登录量 / 激活码激活量 激活且登录率应用场景 激活且登录率是非常常用的转化率指标之一,广泛用于端游、手游。...、外部宣传资源作为游戏的初期市场推广,以收集游戏的封测数据,这其中主要就是留存率 无论是端游还是手游,都非常重视这一指标,留存率成为衡量产品质量的重要指标之一,用以判定游戏的基本品质,为后续的市场资源调配提供参考...胜率贡献:观察每个职业在比赛中的表现,比如胜利贡献、击杀数等指标,以评估其对团队胜率的影响。...地图分布:分析不同职业在各个游戏地图上的活动热点,例如在哪些位置进行开枪、购买武器等行为。 道具和武器使用:研究不同职业偏好的枪械类型及其使用效果,如突破手倾向于使用的AK47或Tec9。...玩家技能评级:根据个人rating和团队配合情况来评价狙击手和突击手的技能水平及对团队的贡献。 用户付费指标 游戏行为数据的用户付费指标是评估玩家在游戏中消费行为的关键数据点。
团队的第二个目标,就是为“绝悟”找到一个能排兵布阵的AI教练,也就是在游戏BP环节(禁选英雄)的最优策略。 ? 绝悟 vs 人类BP测试 简单的做法是选择贪心策略,即选择当前胜率最高的英雄。...要提到的是,围棋等棋牌类游戏结束就能确定胜负,但 BP 结束只到确定阵容,还未对战,所以胜负未分。因此团队利用绝悟自对弈产生的超过3000万条对局数据训练出一个阵容胜率预测器,用来预测阵容的胜率。...进一步的,胜率预测器得到的阵容胜率被用来监督训练估值网络。 除了常见的单轮 BP ,AI 教练还学会了王者荣耀 KPL 赛场上常见的多轮 BP 赛制,该模式下不能选重复英雄,对选人策略要求更高。...训练后的 BP 模型在对阵基于贪心策略的基准方法时,能达到近70%胜率,对阵按位置随机阵容的胜率更接近90%。 至此,绝悟前有多个强兵,后有军师辅佐,不折不扣的一代宗师终于练成了。...研究方法论上看,监督学习对于AI智能体的研发有很高的价值。首先,通过挖掘人类数据预测未来的监督学习是通常是研发游戏 AI 的第一步,并在众多视频游戏上取得良好效果。
掌握多人电子游戏中的策略、战术理解和团队合作是人工智能研究的一个关键挑战。...我们选择第一人称的多角色3D视频游戏为平台来研究这个问题。...这一复杂性,使第一人称多角色游戏成为AI社区里富有成果且活跃的研究领域。在本游研究中,我们仅关注Quake III Arena游戏(我们进行了外观上的调整,但整个游戏的机制保持原样)。 ?...FTW角色学会变得比强基线方法强大得多,并超过人类玩家的胜率。事实上,在一项对参与者的调查中,他们被评为比人类参与者更具合作精神。 ?...这些反应延迟的AI代理的表现仍然优于人类玩家者,高手玩家的获胜几率仅为21%。 ? 人类玩家对反应延迟代理的胜率较低,这表明即使人类的反应延迟程度相当,代理的胜率也高于人类玩家。
19日,腾讯AI Lab团队在arXiv上发表文章,训练AI大战人类玩家,而此次所选择的游戏,正是火遍大江南北的手游——《王者荣耀》。 ?...在与顶尖人类玩家大战250回合之后,取得了48%的胜率! AI“杀戮”王者峡谷 近年来,微观层面的操作取得了很大的进步,但宏观战略的完整解决方案仍然缺乏。...在视觉方面,团队提取了85个特征,例如所有单位的位置和生命点,然后将视觉特征模糊为12*12的分辨率;在属性方面,团队提取了181个特性,如英雄角色、游戏时间、英雄ID、英雄的金币和等级状态以及死亡、助攻量统计...围棋和MOBA游戏的计算复杂度比较 MOBA游戏中AI的宏观战略架构 我们设计MOBA AI宏观战略模型的动机源于人类玩家如何做出战略决策。...在MOBA游戏中,经验丰富的人类玩家完全了解游戏的每个阶段,例如开局阶段,推线阶段,游戏中期和游戏后期阶段。在每个阶段中,玩家都会关注游戏地图,并根据英雄的位置做出相应的决定。
智能体在多玩家电子游戏中掌握策略、理解战术以及进行团队协作是人工智能研究领域的重大挑战。...早先的一场测试比赛,对战双方是人类 CTF 玩家和受过训练的其他人类玩家和智能体。 FTW 智能体通过学习变得比强基线方法强大得多,并且超过了人类玩家的胜率。...尽管如此,这些带有反应延迟的智能体仍然比人类玩家的表现要好:人类玩家中的强者在智能体面前只有 21% 的胜率。 ?...人类玩家在反应延迟的智能体面前,其胜率也很低,这说明即使反应延迟的时间与人类相当,智能体也比人类玩家表现好。...【注:微信只能插入三个视频,敬请扫描二维码查看】在另外两个「Quake III Arena」多人游戏模式下的完整版锦标赛地图上进行游戏的智能体:「Future Crossing」地图上的收割者模式,以及
基于腾讯天美工作室开发的热门 MOBA 类手游《王者荣耀》,腾讯 AI Lab 正努力探索强化学习技术在复杂环境中的应用潜力。...据介绍,此技术支持了腾讯此前推出的策略协作型 AI「绝悟」1v1 版本,该版本曾在今年 8 月上海举办的国际数码互动娱乐展览会 China Joy 首次亮相,在 2100 多场和顶级业余玩家体验测试中胜率达到...在主屏幕中,左上角的 A 为小地图、右上角 B 为控制面板、左下角 C.1 为移动控制、右下角的 C.2 为技能控制。实验表明,AI 智能体能在多种不同类型的英雄上能击败顶级职业玩家。...需要强调,本论文关注的是 MOBA 1v1 游戏而非 MOBA 5v5 游戏,因为后者更注重所有智能体的团队合作策略而不是单个智能体的动作决策。...在 2019 年 8 月份,王者荣耀 1v1 AI 对公众亮相,与大量顶级业余玩家(Top 1%)进行了 2100 场对战,AI 胜率达到惊人的 99.81%,在 5 个英雄上都保持绝对的胜率。 ?
那么,《QQ 炫舞手游》背后的音视频到底是什么呢?今天这篇文章将揭开音视频的神秘面纱。...腾讯音视频实验室 说到音频,就不得不说腾讯音视频实验室了,腾讯音视频实验室,成立于2010年,八年间专注于音视频通信技术的前瞻性研究,包括全球实时音视频网络优化、音视频编解码前沿算法研究、计算机视觉图像处理...国战游戏 国战游戏中的典型代表为 MMORPG,此类游戏中涉及团队副本、组队、帮派、国战指挥等多种玩法,对语音的时延要求也较高,腾讯云游戏多媒体引擎针对此类场景,实现实时自动上下麦及超低时延语音通话,高度适配超多人在线的国战类游戏玩家语音通话需求...狼人杀 目前,桌游类游戏狼人杀已经从传统的饭局延伸到了互联网,在狼人杀游戏中,玩家在开始前热场寒暄,在进行中按顺序发言,在结束后,盘点和回顾,这些环节,都离不开实时语音乃至视频的交互。...社交媒体上已经有很多用户基于这种语音模式,创作了很多趣味视频。 而引入3D位置语音之后,玩家在喊话过程中会暴露自己的方位和位置信息,玩家的声音也会根据位置变化而实时改变。
CEO Hassabis在Twitter上分享:“我们最新的工作展示了智能体在复杂的第一人称多人游戏中达到人类水平,还能与人类玩家合作!” ?...虽然Hassbis在Twitter里说他们的AI“达到了人类水平”,实际上,从实验结果看,他们的AI已经超越了人类:在与由40个人类玩家组成的队伍对战时,纯AI的队伍完胜纯人类的队伍(平均多抢到16面旗...分析发现,游戏中,AI在“tagging”(碰触对方,将其送回地图上的初始地点)上比人类更加高效,80%的情况下能够成功(人类为48%)。...掌握策略,理解战术和团队合作 在多人视频游戏中掌握策略、战术理解和团队合作是人工智能研究的关键挑战。...在比赛中,人类和智能体都是随机配对的——可以作为敌手或者作为队友。 ? 一场早期的测试比赛,由人类与训练好的智能体一起玩CTF。 FTW智能体学会的比强大的基线方法更强,并超过人类玩家的胜率。
研究者在大热 MOBA 手游《王者荣耀》中检验了该方法,结果表明:相较于其它当前前沿的方法,JueWuDraft 的实用性和有效性都更胜一筹。...另外,我们也见证了 AI 智能体在其它游戏类型上的成功,包括 Atari 系列游戏和夺旗游戏等第一人称射击游戏(FPS)、《任天堂明星大乱斗》等视频游戏、扑克等纸牌游戏。...在 MOBA 游戏中,每个英雄都有独特的技能和能力。每支队伍 5 个英雄的技能和能力综合起来即为该团队的整体实力。另外,英雄彼此之间还存在复杂的压制和互补关系。...图 6:网络架构:(a) 是胜率预测器,(b) 是策略和价值网络 胜率预测器 在选择英雄阶段,只能得到阵容信息,胜负信息是未知的。作者采用了胜率预测器来预测阵容的胜率并将其作为奖励函数。...其中第二局和第三局中 JueWuDraft 的胜率比第一局更高。具体来说,在第一局中,JueWuDraft 先手选择了成吉思汗而不是平均胜率最高的刘备,尽管首先选择刘备可能会在第一局得到更高的胜率。
在对战中,因为地图庞大且信息不完备,不同的10个英雄组合应该有不同的策略规划、技能应用、路径探索及团队协作方式,这将使决策难度几何级增加。...团队的第二个目标,就是为“绝悟”找到一个能排兵布阵的AI教练,也就是在游戏BP环节(禁选英雄)的最优策略。 绝悟 vs 人类BP测试 简单的做法是选择贪心策略,即选择当前胜率最高的英雄。...要提到的是,围棋等棋牌类游戏结束就能确定胜负,但 BP 结束只到确定阵容,还未对战,所以胜负未分。因此团队利用绝悟自对弈产生的超过3000万条对局数据训练出一个阵容胜率预测器,用来预测阵容的胜率。...训练后的 BP 模型在对阵基于贪心策略的基准方法时,能达到近70%胜率,对阵按位置随机阵容的胜率更接近90%。 至此,绝悟前有多个强兵,后有军师辅佐,不折不扣的一代宗师终于练成了。...研究方法论上看,监督学习对于AI智能体的研发有很高的价值。首先,通过挖掘人类数据预测未来的监督学习是通常是研发游戏 AI 的第一步,并在众多视频游戏上取得良好效果。
▌前言 掌握多人视频游戏中涉及的策略,战术理解和团队配合一直是 AI 研究的关键性挑战。...为了让这件事情更有意思,在这项工作中我们考虑 CTF 游戏的一种变体,其中每场游戏中的地图布局都会发生变化。因此,我们的智能代理必须要学会一种通用的策略,而非记住某种游戏地图的布局。...更重要的是,该智能体学习到的游戏策略对地图的大小,队友的数量以及团队中的其他玩家都是稳健鲁棒的。...在早前的一场 CTF 测试赛中,比赛双方是经过训练的智能体与人类玩家组成的队伍 经过训练学习,FTW 智能体已经比强大的基线方法更强大,并且超过了人类玩家的胜率。...首先,需要注意的是我们的智能体有非常快的反应时间及非常准确的命中率,这能解释它们在游戏中的卓越表现。人为地减少反应时间并降低命中率后,这仅是智能体获得成功的其中一个因素。
在这款手游推出时,我们发现,祖龙娱乐在手游的研发技术上正变得越来越娴熟。 ?...游戏设计方面,《九州》设计了很大的地图,不做任何的地形限制;另外玩家在飞行过程中也能发生战斗,全方位的空战体验在手游中还是相对比较少见的。...函数动态web效果展示 3、内存对象修改 WeTest手游安全测试团队为测试人员直接展示出游戏中对象列表、对象属性名称、属性值等信息,并且可以以对象为单位进行搜索,告别传统手游内存测试工具搜索“内存数值...,在工具上已经支持所有腾讯在研和运营的手游项目。...团队通过使用与正式服同样的游戏客户端和服务器,模拟外挂工作室制作外挂的过程,依靠自身的技术积累来提高专业程度,持续保持漏洞的发现率。
星际争霸 AI 普遍大量使用固定策略和手工规则,三星的 bot 应用了一些机器学习技术来帮助控制单位、探索地图,开发团队也在尝试更多地应用机器学习技术。...模型从游戏接口接收的数据是单位列表和这些单位的属性,经过神经网络计算后输出在游戏中执行的指令。...这时候的 AlphaStar 就能够以 95% 的胜率打败星际争霸 2 内置的「精英」级别的 AI 了。...比如在 AlphaStar league 自我对战的早期,快速 rush 的策略有较高的胜率;但随着训练过程持续,其它的策略开始展现出更高的胜率,比如用更多的工人快速扩大基地,获取更多的资源后建立经济优势...)、智能体考虑点击和建造建筑的地图区域示意(中下方右侧小图,这也可以理解为智能体的注意力关注的区域)、智能体的操作输出激活情况(右下角小图)以及胜率预测。
索引 博弈对抗方向 No.1 策略协作型AI:绝悟,王者荣耀5V5战胜职业选手,504场1V1顶级业余玩家胜率99.8% No.2 Pluribus算法,德扑多人无限注任务最佳表现算法 No.3 PPO-Dash...算法,2019年障碍塔挑战赛第一轮第二名 正文:博弈对抗方向 No.1 策略协作型AI:绝悟,王者荣耀5V5战胜职业选手,504场1V1顶级业余玩家胜率99.8% 性能表现 | 2019年8月2日...首日的504场测试中,「绝悟」测试胜率为99.8%,仅输1场(对方为王者荣耀国服第一后裔)。...在庞大且信息不完备的地图上,10位参与者要在策略规划、英雄选择、技能应用、路径探索及团队协作上面临大量、不间断、即时的选择,这带来了极为复杂的局面,预计有高达10的20000次方种操作可能性,而整个宇宙原子总数也只是...特点分析 | 1.与之前谷歌DeepMind团队提出的AlphaGo Zero算法类似,Pluribus算法的核心同样是不使用人类数据或者经验,仅仅通过算法的自我博弈来不断学习和提升策略的胜率。
智能体在多玩家电子游戏中掌握策略、理解战术以及进行团队协作是人工智能研究领域的重大挑战。...智能体在完整的锦标赛地图上的另外两个「Quake III Arena」多人游戏模式下进行游戏:在「Future Crossings」地图上进行收割者模式的游戏(左图),在「ironwood」地图上进行单旗夺旗模式的游戏...早先的一场测试比赛,对战双方是人类 CTF 玩家和受过训练的其他人类玩家和智能体。 FTW 智能体通过学习变得比强基线方法强大得多,并且超过了人类玩家的胜率。...尽管如此,这些带有反应延迟的智能体仍然比人类玩家的表现要好:人类玩家中的强者在智能体面前只有 21% 的胜率。 ?...人类玩家在反应延迟的智能体面前,其胜率也很低,这说明即使反应延迟的时间与人类相当,智能体也比人类玩家表现好。
OpenAI 也将该系统开放给了 Dota 2 社区进行对战试玩;在超过 7000 局游戏中,OpenAI Five 的胜率为 99.4%。...「Rollout」能以异步的方式发送正在进行的游戏中的数据,而不是等到整局游戏结束才发送数据进行优化。 整个系统运行在自定义的分布式训练平台 Rapid 上,基于谷歌的云平台上。...经过十个月的 770±50 PFlops/s·days 计算量的训练之后,其在三局两胜制比赛中击败了 Dota 2 冠军战队,并在持续多日的在线展示中击败了 99.4% 的人类玩家。...Rerun 完成了两个月的 150 ± 5 PFlops/s·days 计算量的训练(见图 4)。这个时间跨度显著长于「手术」变化的频率(每 1-2 周一次)。...Rerun 的最终性能比 OpenAI Five 更好,与 OpenAI Five 最终版对战的胜率超过 98%。
黑栗子 发自 凹非寺 量子位 出品 | 公众号 QbitAI OpenAI战队在5v5刀塔比赛上打败人类,才是几天前发生的事。...至少,在夺旗 (Capture the Flag) 比赛中,AI的胜率比人类高。 而且,这里的比赛,比原版游戏还要复杂多变。...不过,DeepMind团队还想让情况更复杂一些,给AI更有 (bian) 趣 (tai) 的锻炼。 于是,夺旗游戏的地图上,发生了一些可爱的改动。 各种地图,训练有素 每场比赛之间,地图都会发生变化。...稳胜人类一筹 训练好的智能体,就做好了赢的准备。 面对地图大小的变化,队友数量的变化,以及敌方的变量,都表现出训练有素的样子。 这是户外地图,红蓝双方都是AI,斗争非常激烈。...室内地图,则是AI与人类选手组成的混合战队,与纯AI战队的斗争。 DeepMind这次一共动用了**40个人类加入战斗,与AI随机组队。看得出他们的比赛并不轻松。 最终的结果,人类胜率不及AI。
例如低分段的比赛里“半藏+黑百合”的组合胜率奇低 因此,我们挑战就是如何处理这些类别特征。如果我只用独热编码,特征空间会很容易的超过几百个维度。...不幸的是,几乎不可能收集到足够多的游戏视频去供给维度如此之高的“怪物”。 然而,这个凶神恶煞的“怪物”也是可以被打败的。...在本文,我会讲解如何用“嵌入”(embeddings)为游戏中的角色建模,以及如何优化预测。 ? 上图为预测准确率 VS 游戏进度。预测由逻辑回归、独热编码和特征选择进行建模后得出。...每局《守望先锋》游戏都是在一个特定的地图上开战(不同地图里各个英雄的优势体现也有所不同),队伍配置实际上也是根据地图所决定,也就是 P(团队|地图)。...用贝叶斯定理重写 P(团队|地图)~P(地图|团队)P(团队)。那么可以将 P(地图|团队)建模为嵌入到地图中,如下所示: ?
领取专属 10元无门槛券
手把手带您无忧上云