前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >谷歌大脑QT-Opt算法,机器人探囊取物成功率96%,Jeff Dean大赞

谷歌大脑QT-Opt算法,机器人探囊取物成功率96%,Jeff Dean大赞

作者头像
量子位
发布2018-07-20 09:32:05
4540
发布2018-07-20 09:32:05
举报
文章被收录于专栏:量子位量子位
郭一璞 发自 凹非寺 量子位 报道 | 公众号 QbitAI

用于工业生产中的普通机器人,往往只会“给鸡抓鸡,给狗抓狗”,像一个对生活失去了向往的流水线工人,重复着日复一日不用动脑的苦劳力。

但,谷歌大脑昨天发了一个新的算法,让这些穷苦的机械臂开始从事“脑力劳动”:

从一群物品中,抓起需要的东西

比如从拼好的积木组合里,抓单个积木:

所使用的方法是深度强化学习,将大规模分布式优化和新型拟合深度Q学习算法——QT-Opt相结合,来让机器人从过去的每一次训练中学习,获取经验。

7个葫芦娃的4个月修炼

这次训练的参与“队员”有7名,他们用10个GPU开始训练:

一根藤上7个机器人

每个机器人由一个带双指夹具的机械臂和一个RGB摄像头组成:

为了让机器人尽快get新的探囊取物技能,谷歌大脑的工作人员准备了1000样不同的物品用来训练:

仔细看一眼,其中包括各种形状、大小、材质不一的物体:

训练的过程首先从工作人员手动设计的策略开始,逐步切换到深度强化学习模型。

从论文上发现,原理大概是这样的:

学有所成

经过4个月的训练后,7位机器人迎来了他们的“考试”:成绩不错,在700次试验中,机器人找东西抓起来的成功率高达96%,比此前监督学习方法78%的成功率提升了很多。

Jeff Dean觉得它们棒棒的:

凌晨4点的北京,Jeff老师发推夸奖自家机器人

除了提升准确率之外,经过QT-Opt算法训练过的机器人还主动get了4个新技能:

会破除阻碍

如果目标物体和其他东西连在一起,机器人会主动把它分开然后抓取。

比如前面示范的抓积木,机器人可以把影响自己发力的其他积木推开,再抓自己需要的那块积木。

“筷功”强

如果碰到难抓的东西,比如外形奇特或是外表光滑的物品,机器人会分析角度,重新定位,然后牢牢抓住不松手。

随手抓也要分析挑选

如果机器人一下子抓住了一堆东西,它可以自己选出需要的物品,在举起手臂之前牢牢的抓住它。

抢我的一定抢回来

如果人为的把机器人已经抓起来的物体拿掉,它还会锲而不舍的再抓一遍:

重要的是,以上这些技能都不是人为设置的,均是在训练过程中,机器人自行get到的。

最后,谷歌还提供了一个视频,来讲述7位机器人盆友的心路历程:

视频内容
《谷歌大脑:机器人进化论》

最后,附论文传送门~

QT-Opt: Scalable Deep Reinforcement Learning for Vision-Based Robotic Manipulation

作者:Dmitry Kalashnikov, Alex Irpan, Peter Pastor, Julian Ibarz, Alexander Herzog, Eric Jang, Deirdre Quillen, Ethan Holly, Mrinal Kalakrishnan, Vincent Vanhoucke, Sergey Levine

谷歌博客地址:

https://ai.googleblog.com/2018/06/scalable-deep-reinforcement-learning.html

arXiv:

https://arxiv.org/abs/1806.10293

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-06-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 7个葫芦娃的4个月修炼
  • 学有所成
    • 会破除阻碍
      • “筷功”强
        • 随手抓也要分析挑选
          • 抢我的一定抢回来
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档