前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >李飞飞高徒新作!30万小时视频教会AI在《我的世界》里打败末影龙

李飞飞高徒新作!30万小时视频教会AI在《我的世界》里打败末影龙

作者头像
新智元
发布2022-06-29 16:45:34
6140
发布2022-06-29 16:45:34
举报
文章被收录于专栏:新智元新智元


新智元报道  

编辑:袁榭 桃子

【新智元导读】近日,李飞飞高徒和团队研究人员提出了基于《我的世界》游戏新框架MineDojo,可以让AI自由探索程序生成的3D世界。

上周,OpenAI让AI看完海量视频后,学会玩《我的世界》。

在这之前,来自英伟达团队的研究人员还构建了一个游戏新框架MineDojo。

MineDojo包含了1000多种不同的开放式任务的模拟套件。

在这里,AI智能体可以自由探索程序生成的3D世界。

李飞飞在社交媒体上称赞了其得意门生,也是这篇论文的一作,Linxi Fan(范麟熙)的最新研究成果。

MineDojo:打开AI新世界

说来,这些AI究竟能做什么?

能在主世界、下界、末日中进行开放式探索,比如:

对战末影龙

寻找沙漠中的金字塔

还能探索海洋纪念碑

可以穿越不同地形,开采材料

能够制作并使用多样化工具,比如,用栅栏围住骆驼

种植小麦...

省事儿了!AI自学自励

目前为止,《我的世界》玩家已经有1亿多人,他们是构建大量数据的基础。

MineDojo从网上收集了海量数据:

  1. 73万YouTube视频,带有标记2.2亿个单词的英文脚本,这些视频总时长大概有30万个小时;
  2. 6735个Wiki页面,其中包括交互式的文本、图像、表格和图表;
  3. 34万条在「r/Minecraft」上的 Reddit帖子,还有660万条评论。

视频素材分两类:

逐步演示、配音详解的教程视频,研究团队用教程视频做出了大量程序基准。

不按特定任务与步骤进行的普通游戏录播视频,给AI智能体提供了内容更多元、素材更丰富的各种学习与训练信号。

由于不管是教程视频还是游戏录播视频,大多数视频库素材都是按时间轴配脚本的。如此就让AI智能体可以低障碍地将自然语言与像素级的图像数据对应,不用大量人工标注就能自行理解各种活动的自然语义对应物。

由于Reddit文本数据库中的内容结合了文字、图片、短视频片段,将精细调试的大语言模型在其中使用后,AI智能体就能获得大量特定的内化概念和复杂策略。

MineDojo现有基准任务库中包含3131个任务,其中有1572个可编程任务、1558个创造性任务、1个通关性任务。

可编程任务按固定步骤和任务目标完成,分四种:

1.生存:AI玩家在初始游戏环境中生存若干天

2.采集:发现、获取、培育、制造数百种材料和物体

3.科技树:按游戏进程目录解锁各种等级的工具与技能

4.基础战斗:AI玩家在游戏中打各种普通小怪,测试智能体反应灵活度和战斗技能

创造性任务就没有可编程任务的精细定义、自动完成的标准了,由AI智能体自由发挥。

通关任务的要求是让AI玩家「打败末影龙并获取龙蛋奖励」。这对人类新手玩家来说都是个游戏初期的里程碑成就。

对于AI智能体而言,这是个验收性任务,考验了AI智能体自行准备、探索、试错等等完成游戏的能力。

研究团队将所有任务都附带了自然语言叙述的提示,很多任务还有用GPT-3生成的逐步指南。

为了用强化学习训练AI智能体玩《我的世界》、完成必备的奖惩功能,研究团队自行开发了模型MineCLIP。

MineCLIP是在海量Youtube数据库上预训练的对比视频语言模型,利用大型预训练的视频语言模型作为学习奖励函数。

比较有特点的是,这个智能体可以解决各种用自由形式的语言指定的开放任务。

同时,它不需要任何人工设计的密集设计奖励。

其奖励效果在可编程任务上与人工编写的逐条奖励程序不相上下,在创造性任务上胜过了OpenAI的预训练CLIP模型。

MineCLIP模型也是MineDojo中AI将图像对应自然语言的核心组件,包含了文本编码器和图像编码器,参数1.5亿。

研究团队在论文中称MineCLIP模型的神经架构很类似CLIP4Clip,但比其多了两层图-文适应处理层。

研究团队在视频数据库中抽取了64万16秒短视频片段抽样,来训练这两层来对应图像和文字,效果可与人工判定的真实值媲美。

网友点评

一位网友称,OpenAI和英伟达基于《我的世界》做的研究方向有些不同。

并对这两项研究进行了对比。

OpenAI试图训练一个《我的世界》中的通才智能体,就像此前DeepMind训练星际争霸那样:

先通过模仿大量演示来学习,然后再通过精心化设计的奖励让智能体去进行强化学习。

问题是,智能体想要进行模仿学习得知道个所以然,然而很多视频并没有标记动作,根本不知道玩家执行了哪些动作来生成这些视频。

于是OpenAI提出了视频与训练模型(VPT)解决方案,在训练7万个小时后,模型就学会了怎么砍树、收集木头。

值得注意的是,预训练的智能体仍然在执行任务时是有限的。

如果想要让其学习更复杂的动作,那就需要精心设计的奖励函数来引导智能体完成必要的步骤。

相比之下,英伟达提出了不同的观点。

他们通过利用YouTube上的视频里的知识学习各种想得到的任务,包括GPT-3生成的任务。

为此,研究者并没有通过手动设计无数奖励,而是设计了一种算法MineCLIP,利用了大型与训练视频模型作为学习奖励函数。

作者介绍

这项最新研究团队共有十个人。

其中论文一作是李飞飞门下得意弟子Linxi Fan(范麟熙)。

他毕业于上海实验中学,本科就读于纽约哥伦比亚大学,目前在斯坦福大学攻读博士,主修计算机视觉、强化学习以及机器人技术。

参考资料:

https://minedojo.org/

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-06-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 【新智元导读】近日,李飞飞高徒和团队研究人员提出了基于《我的世界》游戏新框架MineDojo,可以让AI自由探索程序生成的3D世界。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档