OASIS 由于这是“Building the Metaverse”系列的首篇文章,我想花点时间来思考这个词的含义,它是如何演变的,以及未来可能带来什么。...元宇宙是一个人可以拥有的一系列在线、连接的体验。共同的主题是,“玩家”被连接到一个在线框架,该框架允许实时内容变化、实时社会联系或实时货币化。关键词是“实时”。元宇宙是一个实时的多元世界。...另一个“多元”是,游戏和虚拟世界的创造已成为多学科的,需要游戏设计、游戏理论、行为经济学、分析学、数据库、音乐、人工智能、GPU、图形、品牌、性能、用户体验设计、讲故事、软件工程和其他各种人才。...我们已经在去中心化金融(DeFi)的领域看到了这一点。为了释放世界的创造力,我们将需要类似的模式在虚拟世界和游戏的空间中发挥出来。...在这个未来,驱动国际象棋桌的人工智能可以为手机上的游戏提供动力,或者在虚拟现实中表现出来的桌子上执行;代表资产的艺术可以来自于一个适当补偿创作者的市场;而参与现场国际象棋比赛可以由现场活动引擎驱动,门票销售为组织者提供资金
制定标签(labeling)就是找出该如何称呼这些类别,以及产生这些类别的导航结构信息。 查找和管理 可寻性是决定整体可用性成败的关键因素。...这就是信息架构的“艺术”。 看不到不代表不存在 人们在信息架构中遇到的一个挑战是他们无法轻易地指出它。你有多少次听到有人说:“这个网站的信息架构太棒了!”或者“我在这个应用程序中找不到任何东西!...为了说明这一点,考虑一下国际象棋游戏。 ? 你脑海中浮现的也许是一个这样的棋盘:它放在壁炉旁边,旁边放着一杯白兰地酒,上面摆放着雕刻精美的木质棋子。这个精美的棋盘就是我们称为国际象棋游戏的常见实例。...你是正确的:实际上,国际象棋可以有多种根本不需要木质棋子(或者任何类型的棋子)的玩法。例如,你可能听说过国际象棋通讯赛——使用笔和纸,通过邮寄的方式来玩。 ?...或者你可能更熟悉作为电子游戏的国际象棋,其中一个是这样的。 ? 这种变体是在电脑设备上玩的,其中棋盘和棋子是以像素呈现在屏幕上的,而游戏机制则被调整为符合设备用户界面的特殊性。
AlphaZero需要零人类专家知识作为输入 这一点的重要性不言而喻。...这意味着AlphaGo Zero的潜在方法可以应用于任何具有完美信息的游戏(两个玩家都可以随时了解游戏状态),因为除了游戏规则之外不需要任何专业知识。...毫不夸张地说,所有需要改变的只是输入文件,即描述游戏的机制,并调整与神经网络和蒙特卡罗树搜索有关的超参数。...不像围棋那么复杂,但总共还是会有4,531,985,219,092个游戏位置。 Connect4 游戏规则很简单。玩家轮流在任何可用列的顶部输入他们的颜色。...神经网络已经学会了这一点,并且不需要任何输入。 学习不同的游戏 游戏文件中有一个名为“Metasquares”的game.py文件。它可以在网格中放置X和O标记,以尝试形成不同大小的正方形。
作为CrowdFlowe的CEO,我与许多构建机器学习算法的公司合作过。我发现了在几乎任何一个成功将机器学习应用于复杂商业问题的案例中,都有“人在环中”的运算。...这个简单的模式是许多出名的应用于实际案例的机器学习算法的核心。它解决了机器学习最大的问题,即:让一个算法达到80%的准确率非常简单,但要让它达到99%却几乎是不可能实现的。...特斯拉最近启动了一个根据人在环中模式制作的自动驾驶模式。特斯拉汽车大部分时候在高速公路上自动行驶,但它坚持要求人类驾驶员手握方向盘。...但仍有一部分人还在玩一种他们称为“高级国际象棋”的游戏。高级国际象棋中,人类选手与计算机一起行动,找出最佳的落子位置。计算机擅长应对复杂的战术情景,但在长期战略方面比不上人类。...但它并不是在取代人类们的工作和职业。它是在通过处理简单的任务、观察困难的任务并从中学习,来让每个行业、每个职业的人类们都能有更高的工作效率。
正在改变我们解决重大问题的方式。...划下重点:AlphaGo Zero (以下简称 AG0)可以说是近期最令人印象深刻的,也最受称赞的 AI 成就。简单地说,AG0 只是一个深度神经网络,它以围棋棋盘的当前状态为输入,并输出围棋棋步。...这也是科研人员第一次使用相同的深度学习算法来破解国际象棋和围棋游戏,而且还不像当年的 Deep Blue(深蓝)和最初的 AlphaGo 那样是量身定制的(Deep Blue 是历史上第一个击败人类国际象棋冠军的机器...除了某种范畴上的简单性之外,我们还需要理解围棋的狭隘性。AG0 是弱 AI 的一个明确例子,它也被称为窄 AI。弱 AI 的特点是只能执行一个“窄任务”,比如玩 19*19 的围棋游戏。...首先,你肯定会读一些围棋规则,一些高水平的围棋策略,回忆你过去是如何玩类似游戏的,然后得到一些建议…对吗?
以往,许多科学家会用国际象棋和围棋训练AI,而DeepMind这次用的Stratego,是一款经典的棋盘游戏,要比国际象棋和围棋更复杂,比扑克更巧妙。...「博弈树搜索」虽然可以在充分掌握信息的各种游戏中大杀四方,但对于Stratego这样的游戏,却有些束手无策,因为它的可扩展性不够。 而在这一点上,DeepNash就完爆了博弈树搜索。...DeepNash成功地向我们展示了,AI如何在不确定的情况下,成功地平衡了结果,解决了复杂的问题。 Stratego怎么玩 Stratego是一款回合制夺旗游戏。...游戏中,玩家需要虚张声势,迂回战术,收集信息,巧妙地操作。 它是一款零和博弈,所以一个玩家的任何收益,都代表着对手同等数量的损失。 听起来似乎与我们的军棋很像。...其实很多AI也很擅长打德扑,但它们面对Stratego时,却懵逼了——这个游戏的流程实在是太长了! 玩家要获胜,需要走出数百步。
尽管最近的许多模型都类似于数据输入、动作输出,中间有某种统一系统(比如 Transformer),但 Cicero 在任何学习或训练之前都进行了大量预结构化,并采用精心设计的定制架构分为多个模块和流,每个模块和流都有自己的特化...但它在如何做到这一点上也很引人注目。令人震惊的是,与许多时代潮流相反,Cicero 在很大程度上依赖于手工制作,包括数据集和架构。...而在 Cicero 中,却没有简单的方法来 「呈现」任何这样的规则或地图变化,而且其训练与描述标准 Diplomacy 棋盘行动细节的语言有很大的关系。...这种工作方式在其他问题上可能很有用,但如果将该系统应用于其他问题,例如桥牌等游戏中的竞价,或者为一个项目的团队谈判工作计划,或者计划婚礼,那么该架构的具体内容可能不会有太大的用处。...Cicero 广泛使用了机器学习,但它并不是简单地制造更大的模型(所谓「扩展最大化」)的典型代表,也不是目前流行的「端到端」机器学习的观点——即单一的通用学习算法全面适用。
我们要如何将深度学习(低阶语义)系统与逻辑(高阶语义)系统的能力融合在一起? 人类思维能够发挥逻辑推理的伟大功绩。如果我们的思维机器都是基于直觉的,那么它是如何做到这一点的呢?...AlphaZero 是 DeepMinds Go play 程序的最新版本。我之前介绍过 AlphaGoZero 如何可以从零开始掌握围棋的玩法(不需要人类的经验)。...我总是在想,如果有一个超级先进的物种降落在地球上并向我们展示他们如何下棋,那将是怎样的情况。现在我觉得我知道了。 —?Peter Heine Nielsen 它的棋路不像人类,但也不像程序。...你会看到的是一个基于直觉的系统如何拆解基于逻辑的对手。以下是游戏及专家评论: AlphaZero 国际象棋的走法非常不同。为了获得优势超过对手的位置,它愿意牺牲一些棋子。...这是一个极其艰巨的通用人工智能的里程碑正在以创纪录的速度被超越。我想 AI 界的任何人都期望这样的进展能够迅速地实现。现在这样的事情已经发生了,人工智能的风景将被永远改变。
在本文中,我将尝试介绍三件事: 1.为什么AlphaZero是人工智能向前迈出的一大步 2.如何构建一个AlphaZero方法论来玩“四子连珠(Connect4)”对弈游戏 3.如何调整代码以插入其他游戏...)”论文,该论文展示了AlphaGo Zero如何能够在国际象棋和日本象棋的比赛中分别击败超强象棋引擎StockFish和Elmo。...这意味着,AlphaGo Zero的根本方法可以应用于任何拥有完美信息的博弈中(博弈状态在任何时候都是完全已知的),因为除了游戏规则之外,不需要任何专业技能。...从字面上来说,需要改变的是输入文件,它描述了博弈的机制,并调整了与神经网络和蒙特卡洛树搜索相关的超参数。...这是由神经网络学会的,没有任何人类的输入。 学习一种不同的博弈游戏 在game.py文件中的games文件夹里,有一个叫做“Metasquares”的游戏。
现在这是非常被动的反应,无论是来自普通公众还是来自大型公司的首席执行官,他们都在关注AI,并表示它可以帮助提高利润,但它仍是个黑匣子。我认为,我们仍在努力理解AI将如何适应。...但是,医学界的大明星会喜欢挑战机器,这会破坏交流。 人们问我:“你能做些什么来帮助另一个国际象棋引擎对抗AlphaZero呢?”我可以看看AlphaZero主宰的游戏,了解其中的潜在弱点。...想象一下,你有一把威力很大的枪,可以射击距离你1600米远的目标。现在,方向改变1毫米可能会导致1600米外高达10米的差异。因为枪的威力如此之大,一个小小的改变实际上可以产生很大的不同。...我不相信机器能够将知识从一个开放式系统转移到另一个开放式系统。因此,机器将在封闭的系统中占据主导地位,无论是游戏还是任何其他由人类设计的世界。...我可以看到AlphaGo在练习过程中玩的数百万个游戏,以及它们是如何产生某些有用知识的。
为了让大家走上正确的道路,我将分享一些有用的步骤,如何选择正确的库或框架,以及对于初级游戏开发者来说真正重要的是什么。选择一个(小)想法新游戏开发者经常会受到他们喜欢玩的游戏的启发。...你可能不需要任何敌人、花哨的机制或移动平台。从根本上讲,你所需要的只是简单的玩家移动、跳跃能力和获胜条件。制作像这样的简单游戏是开始成长的最佳方式。...你最终仍需要学习如何编码,但引擎会让你在学习过程中更容易做到这一点。程序员如果你是一名程序员,我会寻找一个你熟悉的语言的游戏框架。...你会注意到,添加真实资产(尤其是声音)会对游戏的感觉产生巨大影响。将其变成一个完整的游戏你制作了一款小游戏,游戏机制简单、良好,还带有一些图形和声音,将所有内容整合在一起。...现在它真的开始像一款游戏了!制作你的第一款完整独立游戏还有最后一步,我认为这是最重要的一步:实现完整的游戏循环,包括获胜、失败和重新开始。我再怎么强调这一点也不过分。
图注:Kasparov,前苏联、俄罗斯职业国际象棋棋手,国际象棋特级大师 我的第一个人工智能程序是由我的Amiga编程的,我写了一个程序来玩奥赛罗逆向思维,这是一个比国际象棋稍微简单的游戏,但我在当中使用了国际象棋程序的所有原则...第二个阶段是在我16、17岁左右时设计的一个叫 "主题公园 "的游戏,其中涉及到 AI 在游戏中模拟,尽管以今天的 AI 标准来看它很简单,但它会对你作为玩家的游戏方式做出反应,因此它也被称为沙盒游戏。...DeepBlue 虽然在国际象棋中有过辉煌时刻,但它实际上是将国际象棋大师的知识提炼成一个程序,无法做其他任何事情。因此我认为该系统中缺少了一些智能的东西,这也是我们尝试做 AlphaGo 的原因。...Lex Fridman:让我们简单地谈谈国际象棋中关于人类的一面。你从游戏设计的角度提出,象棋之所以吸引人是因为它是游戏。...不同的文化让我们比以往任何时候都更加分裂,也许当我们进入了一个极度富足的时代以后,资源不那么稀缺了,我们就不需要激烈竞争,而是可以转向更好的合作。
该训练过程采用了大量实例对节点连结进行微调,使神经网络可以根据特定的输入产生特定输出。例如,在图片中进行面部识别。 ? 近几年,神经网络的迅猛发展得益于两项进步。...首先是随着神经网络的学习,对如何进行微调有了进一步理解。这要部分归功于运算更快的计算机;第二是海量注释数据集的出现,使神经网络得以更好地学习。...训练机器的通常做法是人工评估每个盘面局势并将此信息输入计算机使其可以识别棋局的强弱。 对于1.75亿种盘面来说这是巨大的工作量。...“比如,有一个设定可以测试对开放线控制的理解,另一个可以检验对象和马的价值在不同情况下如何变化以及对各自影响的理解,还有一种设定能够检验对中心控制的理解”,他说。 测试结果以15000分为满分。...莱表示这种方法应该直接应用于其他游戏当中,很明显的例子就是传统中国围棋,目前人类相比于他们的硅制对手仍掌握着绝对优势。也许莱在未来能够有所突破。
本文我将介绍棋牌类型的游戏来继续有关Linux开源游戏的系列文章。在以后的文章中,我计划介绍益智、赛车,角色扮演以及策略与模拟类游戏。...定居点放置在六角形瓷砖相遇的位置。每个磁贴都有一个编号,当在一个玩家回合中滚动该数字时,每个居住在该磁贴旁边的玩家都将获得关联的资源。然后将这些资源用于构建更多更好的结构。...PokerTH对Texas Hold'em的实施已完善,该游戏功能齐全,具有可靠的在线游戏功能。任何德州扑克玩家都有必要去体验一下PokerTH。...XBoard 象棋计算机游戏也太多惹,即使仅从开源产品中,你也很难挑出一个。但是,对于大多数用户而言,XBoard是一个不错的选择。...如果您正在寻找带有精美3D西洋棋棋子的轻型国际象棋应用程序,则可能希望在其他地方寻找,但是如果您想要一个功能强大的程序来帮助您分析和提高国际象棋技巧,XBoard是绝佳的开源选择。
DeepMind的使命是证明AI不仅可以精通游戏,甚至可以在不知道规则的情况下做到这一点,最新的MuZero就实现了这一目标。...在象棋和围棋比赛中,都是为AI提供了一组不变的、已知的游戏规则,但MuZero完全不需要提供规则手册,通过自己试验,就学会了象棋围棋游戏和各种Atari游戏,其通过考虑游戏环境的各个方面来评估是否重要,...2016年,DeepMind 推出了第一个人工智能程序 AlphaGo,在围棋游戏中击败人类。两年后,它的继任者AlphaZero从零开始学习围棋、国际象棋和将棋。 ?...由于它能够在未知环境中计划胜利的策略,MuZero 掌握围棋、国际象棋、shogi 和 Atari ,而不需要被告知游戏规则。...多年来,研究人员一直在寻找方法,既可以学习一个模型,解释他们的环境,然后可以使用该模型来规划最佳的行动方案。
他们勾勒出了“猪”的总体概念,而不是任何特定的一只。也就是说,我们的大脑如何存储“猪的概念”和我们如何画猪之间有一个联系。学习如何画猪,也许会学到一些人类抽象综合的能力。 以下是软件的工作原理。...而最好的例子就是瑜伽体式: ? 现在这些看起来都像人类的画作了,但它们并非人类所画。它们是人类作画这种行为的重建。有些画得不错,有些则不怎么好,但是如果来和 AI 玩看图猜词应该是足够管用了。...但它确实对于人们如何认知猫、猪、瑜伽或帆船有所了解。 “当我们开始生成或绘制一幅帆船的图画时,该模型可能会用数百个来自该图的其他帆船的模型进行填充。”谷歌的 Eck 告诉我。...然后输入一个蓬松的云的草图,于是,它画出了这个: ? 雨落到了你输入模型中的云的外面。那是因为很多人画雨时会先画云,然后画从云中落下的场面。所以如果神经网络看到一朵云,它就会让雨从该形状的底部落下。...Eck 和 Ha 正在建立一个更类似玩国际象棋的 AI,而不是可以弄清和玩任何游戏的 AI。这在Karpathy 看来,这一研究的适用范围似乎有限。 但有理由认为线条绘画是人类思考方式的基础。
这个算法很容易理解,而且也在游戏人工智能领域外有很多应用。 目录 1 介绍 1.1 有限两人零和回合制游戏 1.2 如何表征一个游戏 1.3 什么是最有潜力的下一步?...有限两人零和回合制游戏 蒙特卡洛树搜索运行的框架/环境是「游戏」,其本身是一个非常抽象的广义术语,所以在这里我们只针对于一种游戏类型:有限两人零和回合制游戏——这听起来或许有点复杂,不过其实很简单,让我们来分析一下...互动意味着有玩家会参与进来(一个或多个) 「有限」表示在任何时间点上,玩家之间都有有限的互动 「两人」有限游戏,顾名思义 「回合制」表示玩家按照一定顺序进行游戏——轮流出招 最后「零和游戏」——这意味着游戏双方有着相反的目标...有时这样的游戏也被称为严格竞争博弈 我们可以轻易验证围棋、国际象棋或井字棋是有限两人零和回合制游戏。...模拟总会产生一个评估,对于博弈来说,该评估就是胜利、失败或平局等结果,但通常任何值都可以是模拟的合理结果。
DeepMind很高兴看到国际象棋界成员的回应,他们在和AlphaZero对战中看到了一种突破性的,高度动态和非传统的游戏风格,与之前的任何国际象棋游戏程序都不同。...现在,DeepMind推出了AlphaZero的完整评估,该评估发表在Science上,它描述了AlphaZero如何快速学习每个游戏,成为历史上最强大的玩家,尽管它是从随机游戏开始训练,没有内置该领域知识...传统的国际象棋引擎,包括世界计算机国际象棋冠军Stockfish和IBM突破性的Deep Blue,依赖于数千个由强大的人类玩家制定的规则和启发式方法,试图解释游戏中的每一个可能性。...这些招数已经被包括Lee Sedol本人在内的所有级别的玩家研究过,他们评论道:“我认为AlphaGo是基于概率计算的,它只是一台机器。但当我看到这一手时,我改变了主意。...AlphaZero能够掌握三种不同的复杂游戏,并可能完成所有完美信息游戏,这是克服这一问题的重要一步。它表明单个算法可以学习如何在一系列设置中发现新知识。
当时,大多数 AI 计算机象棋研究人员沮丧地发现了这一点,他们的方法是利用人类对象棋特殊结构的理解。...当这个利用硬件和软件的基于搜索的更简单方法被证明更有效时,这些基于人类知识的象棋研究人员却仍不肯认输。...他们认为虽然这个「暴力」搜索方法此次赢了,但它并不是一个普遍的策略,无论如何它不是人类下国际象棋的方法。这些研究人员希望基于人类输入的方法获胜,但结果却令他们失望了。...同样重要的是利用自我对弈(self play)来学习一种价值函数(就像在很多其他游戏甚至国际象棋中一样,虽然在 1997 年首次击败世界冠军的比赛中没起到什么作用)。...这导致了自然语言处理领域的重大改变,过去几十年来,统计和计算在该领域逐渐占据主导地位。深度学习最近在语音识别中的兴起正是朝着这一方向迈出的最新一步。
上世纪出现的“深蓝”第一次击败人类,但它依赖专家编码人类的国际象棋知识,而诞生于 2017 年的 AlphaZero 作为一种神经网络驱动的强化学习机器实现了图灵的猜想。...AlphaZero 的无需使用任何人工设计的启发式算法,也不需要观看人类下棋,而是完全通过自我对弈进行训练。 那么,它真的学习了人类关于国际象棋的概念吗?这是一个神经网络的可解释性问题。...首先将概念定义为如图 1 中橙色所示的用户定义函数。广义线性函数 g 作为一个探针被训练用于近似一个国际象棋概念 c。近似值 g 的质量表示层(线性)对概念进行编码的程度。...对于给定概念,对每个网络中所有层的训练过程中产生的网络序列重复该过程。 图 1:在 AlphaZero 网络(蓝色)中探索人类编码的国际象棋概念。...不过,这种偏好不需要过度解释,因为自我对弈训练是基于快速游戏,为了促进探索增加了许多随机性。 造成这种差异的原因尚不清楚,但它反映了人类与人工神经网络之间的根本差异。
领取专属 10元无门槛券
手把手带您无忧上云