AI Zero的“异形”国际象棋显示AI的力量和特性

DeepMind开发的最新AI程序不仅非常出色,而且非常灵活 - 这也很奇怪。

DeepMind 本周发表了一篇论文,描述了一个 已经掌握了围棋的游戏程序,该程序已经被证明能够掌握国际象棋和日本游戏Shoju,已经掌握了Go的游戏。

DeepMind的创始人兼首席执行官德米斯·哈萨比斯(Demis Hassabis)和国际象棋专家本人周四在加利福尼亚州的一个人工智能会议上介绍了该系统的更多细节,称为Alpha Zero。这个程序经常做出一些对于一个人类棋手来说似乎是不可想象的动作。

Hassabis在长滩举行的神经信息处理系统(NIPS)会议上说:“它不像人类一样玩耍,也不像一个程序。“它发挥了三分之一,几乎是外星人,”。

除了显示机器学习程序在特定任务上的辉煌程度,这表明人工智能可能与人类有很大不同。随着人工智能变得越来越普遍,我们可能需要意识到这种“外来”的行为。

AlphaGo零显示机器可以成为超人没有任何帮助

游戏AI的升级版本使用一种新的机器学习形式,在Go书中教会了每一个技巧。

Alpha Zero是AlphaGo的更一般版本,由DeepMind开发的用于玩棋盘游戏Go的程序。在24小时内,阿尔法零自学能够打好棋,足以击败周围最好的国际象棋程序之一。

哈萨比斯解释说,还有一点值得注意的是,它有时会做出看似疯狂的牺牲,比如提供主教和女王来利用一种导致胜利的位置优势。高价值的这种牺牲通常是很少见的。在另一个案例中,该计划将其女王移到董事会的角落,这是一个非常奇怪的把戏,具有惊人的位置价值。Hassabis说:“这就像另一个维度的国际象棋。

哈萨比斯推测,因为阿尔法零自我教导,它没有遵循通常的方法来分配价值,并试图减少损失。他说:“也许我们的国际象棋概念太有限了。“这可能是国际象棋的重要时刻。我们可以把它植入我们自己的游戏中。“

象棋游戏在人工智能方面有着悠久的历史。数十年来发展和完善的最佳方案融合了大量的人类智慧。尽管1996年IBM的Deep Blue击败了世界冠军,但是和其他传统的国际象棋程序一样,这个程序需要精心的手工编程。

原来专为Go设计的AlphaGo非常重要,因为它能够学习玩一款非常复杂且难以教授的游戏,需要一种本能的感觉。AlphaGo通过摄取数以千计的示例游戏掌握Go,然后针对另一个版本进行练习。它是通过使用被称为强化学习的方法来训练一个大型的神经网络来完成的,这个强化学习模仿动物似乎学习的方式(请参阅“ Google的AI大师赛十年前的十年”)。

此后,DeepMind展示了一个名为AlphaGo Zero的程序,该程序不需要任何示例游戏就可以学习,而是完全依靠自我玩耍(请参阅“ AlphaGo Zero显示机器无需任何帮助即可成为超人 ”)。通过展示相同的程序可以掌握三种不同类型的棋盘游戏,Alpha Zero进一步改善。

阿尔法零的成就是令人印象深刻的,但它仍然需要发挥更多的练习游戏比人类的国际象棋大师。Hassabis说这可能是因为人类从其他形式的学习中受益,比如阅读如何玩游戏和看别人玩游戏。

尽管如此,一些专家仍然警告说,该方案的能力虽然显着,但应该从背景来看。在哈萨比斯之后,纽约大学的教授加里•马库斯(Gary Marcus)表示,大量的人类知识进入到了“零”中。而且他认为人类的智力似乎涉及到一些先天的能力,比如直觉能力的发展。

研究人类智能的麻省理工学院教授Josh Tenenbaum说,如果我们想要开发真正的人类智能,我们应该研究人类展现的灵活性和创造性。他指出,除其他事例之外,还有哈萨比斯和他的同事在制定,设计和制定方案时的智慧。“这几乎和角落里的女王一样令人印象深刻,”他讽刺道。

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20171210A04LTC00?refer=cp_1026

扫码关注云+社区