首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

耗时两年,谷歌用强化学习打造23个机器人帮助垃圾分类

因为现实世界是复杂多样,并且随着时间推移不断变化,这为机器人系统带来巨大挑战。然而,强化学习应该是应对这些挑战优秀工具:通过不断练习、不断进步和在工作中学习机器人应该能够适应不断变化世界。...机器任务是到达每个垃圾站进行垃圾分类,在不同垃圾箱之间运输物品,以便将所有可回收物品(罐头、瓶子)放入可回收垃圾箱,将所有可堆肥物品(纸板容器、纸杯)放入堆肥垃圾箱,其他所有东西都放在其它垃圾箱里。...在现实世界机器人会遇到各种独特情况,比如以下真实办公楼例子: 从不同经验中学习 在工作不断学习是有帮助,但在达到这一点之前,需要用一套基本技能来引导机器人。...在仿真环境从简单脚本策略开始引导,应用强化学习,并使用基于 CycleGAN 迁移方法,利用 RetinaGAN 使仿真图像看起来更加逼真。...谷歌研究人员在论文提供了有关技术设计、各种设计决策削弱研究以及实验更详细统计数据更深入见解。 结论和未来工作展望 实验结果表明,基于强化学习系统可以使机器人在真实办公环境处理实际任务。

18620

【2021GTC】帮助四足机器学习具有挑战性任务:从模拟到现实

由于深度学习最新进展,我们能够将机器人带到以前无法到达地方。事实上,你在这些视频中看到机器人完全是由神经网络控制。...reward表明机器人在执行诸如步行和跟随给定速度等任务时表现。收集一些经验后,代理更新其神经网络以最大化获得reward。然后继续收集更多数据。 一开始,网络是完全随机初始化。...机器人将无法完成任务。但是在不同代网络,它将开始表现得越来越好。用强化学习训练机器人会带来一些挑战。可以想象,在实验室里做这样实验是非常繁琐。...给定高级导航命令,机器人能够根据来自深度相机帧安全地移动到目标位置,而无需任何明确环境映射。首先,使用状态表示学习将图像序列和相机的当前轨迹融合以形成世界模型。...这个轻量级模块输出然后被直接输入到一个通过强化学习训练目标到达和避障策略。 我们展示了将管道解耦到这些组件结果是一个样本有效策略学习阶段,可以在短短十几分钟内在模拟完全训练。

75220
您找到你想要的搜索结果了吗?
是的
没有找到

一文带你了解基于视觉机器人抓取自学习(Robot Learning)

基于与X Robotics合作基础上(该项目的任务是让一系列机器人同时学习使用单目相机输入来抓取家用物品),研究人员使用机械臂“无意间”抓取物体,这种经验使机器人能够学习丰富图像对象。...该研究在数据收集过程利用机器人可以操纵物体移动优势,提供数据所需变化因素。通过对物体进行抓取,可以获得1)抓取场景图像;2)抓取后场景图像;3)抓握物体本身孤立视图。...这个属性可以用于实现强化学习奖励函数,并允许机器人在没有人工提供标签情况下学习实例抓取。 2)目标物体本地化 第二个属性是,可以组合场景空间映射和物体嵌入来本地化图像空间中“查询对象”。...例如,移动机器人在特定环境接收操纵者命令拾取放置物品,人类可以指定语言为某类命令,并将概念词与物体对象属性进行关联,例如红色这样概念词。...实验中指定任务包含:根据用户指示完成到达指定地点,将物品递送给某人,将物品从指定地点移动到目的地。下图为受过训练智能体采用动态学习方式实现指定目标。

1.6K10

MIT 6.S094· 深度增强学习 | 学霸课程笔记,我们都替你整理好了

2.传感器:采集物理世界信息并将其转换成机器可以处理原始数据。是机器人在物理世界工作输入端。 ? 3.感知数据:传感器采集原始数据。 ? 4.特征提取:从感知数据中提取特征。...目标:从稀疏奖励/监督数据中学习利用状态转移时间动态特性,一个状态到一个状态转移会通过时间变化获得,从而根据先验数据推理出当前真实知识。我们能够生成真实世界稀疏学习信息。...状态:游戏原始像素。 ? 工业机器人:用机器人来包装。 目标:选中一个盒子,把盒子放入容器状态世界原始像素。 ? 马尔科夫决策过程:持续行动奖励状态直到终结。...所以,这就到了深度强化学习该出场时刻了! 深度强化学习 ? 众所周知,神经网络非常擅长于估计。 相较于机器学习,深度学习可以在更大状态空间中对值进行估计。...神经网络损失函数: 接受当前状态奖励,通过神经网络向过程计算未来状态值,并从当前状态行动向过程减去这个值。

51330

1小时学会走路,10分钟学会翻身,世界模型让机器人迅速掌握多项技能

选自arXiv 机器之心编译 编辑:小舟、蛋酱 世界模型在实体机器人上能发挥多大作用? 机器人解决现实世界复杂任务,一直是机器人研究基础问题。...深度强化学习提供了一种流行机器学习方法,让机器人能够通过反复试验改善其行为。然而,当前算法需要与环境进行过多交互才能学习成功,这使得它们不适用于某些现实世界任务。...在最近一项研究,UC 伯克利研究者利用 Dreamer 世界模型最新进展,在最直接和最基本问题设置训练了各种机器人:无需模拟器或示范学习,就能实现现实世界在线强化学习。...研究者在现实世界从零开始四足机器人翻身、站起来并在 1 小时内学会步行。 此外,他们发现机器人会在 10 分钟内能学会承受推力或快速翻身并重新站起来。 3、视觉拾取和放置。...该研究将学习更新与数据收集解耦,以满足延迟要求并实现快速训练而无需等待环境变化。在该研究实现,一个学习线程持续训练世界模型和参与者 - 评价者行为,同时一个参与者线程并行计算环境交互动作。

74930

AAAI 2019论文解读:机器人和认知学习

机器之心原创 作者: Joni 编辑:Hao 本文介绍了三篇AAAI 2019 论文,两篇分别研究了机器人如何学习环境物品拥有权以及对物品操作能力,后一篇研究了是否能用当今深度学习方法来模拟简单的人类认知活动...分析师评论:这篇文章利用规则算法和其他(主要)符号算法,试图让机器人在人机交互理解物品所有权和社会规则问题。...但这个研究跟朱教授擅长计算机视觉有联系但不是完全相关,而是利用(LfD(learning from demonstration)),令机器人模拟人镜像神经元(Mirror Neuron)运作进而来控制机器物品操作能力...本文创新性在于 1) 采用了触觉手套来感应不同程度力度,2) 通过 Q 强化学习和语义模型,以目标为主(goal-directed)学习对应状态和力度;3)利用物理模拟器模拟不同机器人动作和力度可以建立功能等同动作...2 学习过程 2.1 强化学习施力和状态关系 为了便于实现,文章使用对象上力分布作为力状态空间,并将 K 均值聚类应用于由不同机器人动作生成力分布。

51030

强化学习入门——说到底研究是如何学习

机器学习重新火起来,深度强化学习就一直是科研一大热点,也是最有可能实现通用人工智能一个分支。然而对于没有强化学习基础同学们,如果直接去学习深度强化学习,想必会碰到很多问题。...本文尝试普及一些最基础强化学习算法,并以一个小例子来辅助大家理解。 ---- 问题定义 强化学习究竟研究是一个什么样问题,让其具有实现通用人工智能潜力? 这个问题与我们认识世界方式相关。...留在原位)和A3 假设机器人在位置A2,如果其向左或向右移动,有70%概率会留在原位A2,分别有15%概率会移动到A1和A3 我们算法要解决问题是,在任意绿色格子里面放置一个机器人,算法可以指导机器人一步一步到达位置...由于到达出口格子即成功,如果机器人能到达此处,我们就给智能体反馈奖励1。同理,如果到达陷进格子,反馈奖励-1,到达绿色格子则奖励0。 这个时候我们来看格子D1。如果机器人在此处,它可以往四个方向移动。...一个简单思路是我们可以通过不断在这个世界中进行探索,去了解这个世界运作方式,也就是不断弄清了这个T函数。在强化学习研究,抽象一下这个过程,即通过不断采样来近似估计T函数。

26420

DeepMind 提出全新强化学习算法,智能体从零开始学会控制

日前,DeepMind 提出全新强化学习算法「调度辅助控制」(Scheduled Auxiliary Control (SAC-X)),智能体从零开始学会控制,他们试图通过这种学习范式来克服智能体控制问题...利用学习算法,调度器会在训练过程得到改进,该算法试图最大限度地提高主任务进程,进而显著提高数据效率。 ?...令人兴奋是,利用 SAC-X,我们实验室机器人手臂能够成功地从零开始学习拾取和摆放。...在过去这极具挑战性,因为在现实世界机器学习需要高效数据,所以流行方法是预训练模拟智能体,然后再将这种能力转移到真正机器人手臂中。 ?...从这方面来说,SAC-X 是一种通用强化学习方法,可以广泛应用于控制和机器人领域之外一般稀疏强化学习环境。

53880

谷歌最新验证系统又双叒被「破解」了,这次是强化学习

两个版本 reCAPTCHA 有可利用文本、图像或音频,可以将其用作训练神经网络输入。...实际上,这项强化学习技术并非针对 reCAPTCHA v3 不可见分数,而是 reCAPTCHA v2 首次引入鼠标移动分析。...他们系统在页面中放置一个正方形网格,鼠标沿对角线穿过网格到达「我不是机器人」按钮。如果成功,则给予正面强化;如果失败,则给予负面强化。该系统学会了控制正确移动方法以欺骗 reCAPTCHA 系统。...该方法以 97.4% 胜率成功攻破了 reCAPTCHA 测试。 接下来考虑在更大网格上测试该方法。如果增加网格大小,状态空间维数就会指数级增加,在这种情况下训练强化算法并不可行。...图 2:分治方法图示:智能体在紫色对角网格世界上运行。红色网格世界还没有被探索。 ? 图 3:强化学习智能体在不同网格分辨率上胜率。

2.3K10

Meta重磅更新,小扎在元宇宙里养了会做家务狗!人形化身超逼真,AI智能体在真实物理世界和人互动

人与机器人在模拟环境共存,使人类能够首次在类似家庭环境,在有人形化身存在情况下,学习机器人AI策略,完成日常任务,并对其进行评估。 这无疑具有重大意义—— 1....强化学习算法通常需要数百万次迭代,才能学习到有意义知识,因此在物理世界中进行这些实验可能,需要数年时间。 而在模拟实验,几天就能完成。 2....在物理世界不同房屋中收集数据是不切实际,因为这需要将机器人移动到不同地方,还要设置环境。 而在模拟,可以在几分之一秒内改变环境,然后立马在新环境开始实验。 3....当今最先进AI模型,需要大量数据进行训练,而模拟使研究者能够轻松地扩大数据收集规模。 而在物理世界,数据收集成本可能相当高,速度也会很慢。...在HomeRobot OVMM基准,智能体可在家居环境抓取新奇物品,并将其放入或放在目标容器。 其中,Meta采用强化学习和启发式(基于模型)基线,展示了导航和放置技能可以从模拟到物理世界转移。

20330

被啤酒节遗留垃圾吓到,德国小哥发明现实版“瓦力”清洁机器

一位名叫Damian Bogunowicz慕尼黑工业大学硕士生,和他小伙伴一起利用计算机视觉、深度强化学习和Unity 3D游戏引擎开发了一款自主收集垃圾机器人。...不要与桌子和椅子发生碰撞,不要回收木托盘等物品因为这不属于房间内垃圾。 在模拟环境机器形状是正方体,主要有三个动作: 平移运动(向前、向后以及保持静止) 转向运动(左转、右转) 抓取状态。...两个动作非常简单,抓取状态需要设计。总的来说,每次机器人决定收集一个物体时候需要满足下面两个条件: 1.物体必须靠近机器前部(限制在具有绿色边缘体积内) 2.机器人必须决定激活“抓取器”。...3.用RealSense摄像机将信息从仿真平台传递给真实机器人,这一部分工作是将在物理环境中部署机器人,这意味着通过在现实世界运行机器人来微调算法,目前,强化学习机器人技术应用还处于实验阶段。...其利用深度学习技术开发画面识别引擎,哪怕数百种物品散乱在房间各处,引擎也能够识别出物品位置和种类。基于该识别引擎,人们可以规划什么物体应该怎么去抓取以及如何整理等等。

49530

大猩猩也会玩《我世界》了,看一遍视频就能get新技能

或许是因为之前玩过一些游戏,Kanzi 刚坐到屏幕前就进入了状态,几秒钟就学会了如何操作角色前进。只要它能到达指定区域,屏幕上就会出现零食图案,同时工作人员也会给它对应零食。...终于,在走到积木时,Kanzi 找到了上方按钮,成功把积木击碎,这引得工作人员一阵欢呼。 经过这两个任务,Kanzi 已经掌握了两项基本技能:在环境收集零食以及把积木打碎。...工作人员接下来目标是让 Kanzi 在一个全新环境利用这些技能并让网线另一端一位人类玩家相信它是真人。...在此之前,Kanzi 被安排在一个特制洞穴环境强化技能,只有打破一道一道积木墙,Kanzi 才能到达洞穴尽头。 在一路打怪升级路上,Kanzi 熟悉了刚刚才学到新技能。...英伟达 AI 高级科学家 Jim Fan 表示,他观察到, AI 玩《我世界》和大猩猩有很多类似的技巧,包括: In-context 强化学习:当 Kanzi 在游戏中达到标记里程碑时,他会得到水果或花生作为奖励

12330

被啤酒节遗留垃圾吓到,德国小哥发明现实版“瓦力”清洁机器

一位名叫Damian Bogunowicz慕尼黑工业大学硕士生,和他小伙伴一起利用计算机视觉、深度强化学习和Unity 3D游戏引擎开发了一款自主收集垃圾机器人。 ?...在这个实验,他们将机器目标设置为探索环境并学习正确策略。然后设定一系列奖励和惩罚。 主要来说,机器人有两个目标: 接近并收集垃圾,例如面包渣、塑料袋以及香肠等食物残渣。...在模拟环境机器形状是正方体,主要有三个动作: 平移运动(向前、向后以及保持静止) 转向运动(左转、右转) 抓取状态两个动作非常简单,抓取状态需要设计。...3.用RealSense摄像机将信息从仿真平台传递给真实机器人,这一部分工作是将在物理环境中部署机器人,这意味着通过在现实世界运行机器人来微调算法,目前,强化学习机器人技术应用还处于实验阶段。...其利用深度学习技术开发画面识别引擎,哪怕数百种物品散乱在房间各处,引擎也能够识别出物品位置和种类。基于该识别引擎,人们可以规划什么物体应该怎么去抓取以及如何整理等等。

71240

UC伯克利等新算法让四足机器人“稳得一批”:跨石滩、过草地…泼了油也不打滑!

手动编码改进可以提高机器人在受控环境性能,但是想要机器人真正适合现实世界变化,唯一方法是机器人真正适应环境,类似于人类学习方式。...想要赋予机器人适应不断变化世界能力,研究者需要通过数百万次重复实验来他们,而做到这一点最佳方法不是在现实世界,在现实世界机器人可能会在学习过程损坏或磨损,研究者是在模拟环境中进行。...环境参数范围 当然,不能仅仅用这个基本策略来部署机器人,因为我们不知道它在现实世界中会遇到什么外部特性。因此,研究者依赖于机器人在周围环境自己学到信息,即机器人最近运动信息。...由于我们知道机器人在模拟遇到实际外部特性,我们可以使用监督学习训练自适应模块,从机器人最近历史状态预测当前行为。...相比较而言,先前基于 RL 方法训练机器人需要几分钟时间,有时还需要人工干预才能适应新条件,使得这些机器人在现实世界不现实。

53630

Transformer+强化学习,谷歌DeepMind让大模型成为机器人感知世界大脑

近期出现了一些颇具潜力进步,它们表明大规模机器强化学习能在多种应用设置取得成功,比如机器人抓取和堆叠、学习具有人类指定奖励异构任务、学习多任务策略、学习以目标为条件策略、机器人导航。...因此,DeepMind 表示,这项研究关注重点是通过离线强化学习使用 Transformer 并整合之前收集大型数据集。...结果表明这种做法能提升基于 Transformer 离线强化学习方法在大规模机器学习问题上表现。...在真实世界实验,他们使用数据集包含 3.8 万个成功演示和 2 万个失败自动收集场景,这些数据是通过 13 台机器人在 700 多个任务上收集。...相比于 RT-1、IQL 和 Decision Transformer (DT) 等基准方法,Q-Transformer 可以有效地利用自动事件片段来显著提升其使用技能能力,这些技能包括从抽屉里取放物品

49840

一文梳理隐私计算联邦学习推荐系统研究进展

随着近年来大数据技术发展以及用户终端普及,对于用户数据收集越来越简单,以及收集用户数据数量与日俱增,因此用户对于隐私问题担忧越来越大。...因此后续对于数据隐私保护方法在推荐中进行了大量尝试,比如匿名化、差分隐私、本地化差分隐私、同态加密算法、安全多方计算等与推荐方法结合;以及机器学习思想在推荐尝试,比如对抗机器学习、对抗样本生成等...联邦学习,即通过将用户数据保存在本地,然后利用本地数据训练本地模型,然后在服务端协同多个本地模型进行优化,进而聚合多个本地模型中间参数来得到服务端全局较优模型,最终下发到每个终端设备上。...利用强化学习实现自适应减少通信量FCF-BTS A Payload Optimization Method for Federated Recommender Systems-Recsys....因此本文利用强化学习来挑选能够使得反馈具有正向收益物品向量来进行更新。

1.2K40

学界 | 价值传播网络,在更复杂动态环境中进行规划方法

强化学习(RL)学习规划可以被认为是寻找环境预期回报最大化策略问题。其中,这种策略是一个贪婪函数(greedy function),选择将访问具有较高智能体价值状态行动。...这又将问题转移到如何成功估计状态问题。解决此问题常用算法之一是价值迭代(VI),它通过收集和传播所看到奖励来估计值,直到达到固定点。...,我们模块可以学习在具有比静态「网格世界」更复杂动态环境中进行规划。...图 1:VIN 数据集随机图和我们训练环境一些随机配置之间比较。在我们自定义网格世界,块数量随着尺寸增加而增加,但它们在总可用空间中百分比保持不变。...我们在 MazeBase 网格世界静态和动态配置进行了评估,使用了几种不同尺寸随机生成环境;此外还在星际争霸导航场景对其进行了评估,结果表明它具有更复杂动态特性以及像素输入。

39510

一文梳理联邦学习推荐系统研究进展

随着近年来大数据技术发展以及用户终端普及,对于用户数据收集越来越简单,以及收集用户数据数量与日俱增,因此用户对于隐私问题担忧越来越大。...因此后续对于数据隐私保护方法在推荐中进行了大量尝试,比如匿名化、差分隐私、本地化差分隐私、同态加密算法、安全多方计算等与推荐方法结合;以及机器学习思想在推荐尝试,比如对抗机器学习、对抗样本生成等...联邦学习,即通过将用户数据保存在本地,然后利用本地数据训练本地模型,然后在服务端协同多个本地模型进行优化,进而聚合多个本地模型中间参数来得到服务端全局较优模型,最终下发到每个终端设备上。...具体,本文提出利用随机采样去噪客户端(Denoising Clients)去收集普通客户端(Ordinary Clients)带有噪声梯度然后进行上传,当服务端收集到所有客户端梯度后利用这种机制可以缓解梯度噪声问题...因此本文利用强化学习来挑选能够使得反馈具有正向收益物品向量来进行更新。

1K20

腾讯AI×王者荣耀「绝悟」项目首亮相:KPL秋季决赛击败顶尖战队

在腾讯 AI Lab 最新研究,AI 在《王者荣耀》 1% 玩家对战达到 48% 胜率。...Dota 是一款著名奇幻 5v5 多人在线战术竞技游戏(MOBA)。每个玩家控制一个英雄,与其他四个队友一起保护防御塔,攻击敌人防御塔并通过杀死小兵收集资源。他们目标是摧毁敌人基地。 ?...在正确时间到达正确地点至关重要,这也是高级玩家和其他玩家之间区别。在宏观战略操作还使用了规划。...因此,作者认为监督学习是更好方案,因为可以充分利用高质量游戏回放来学习宏观战略以及相应执行示例。需要注意是,通过监督学习学到宏观战略和执行可以进一步作为强化学习初始策略。 ?...在与人类玩家队伍(这些队伍在玩家排行榜系统中排名 1%)竞技,由 5 个 AI 智能体组成队伍达到了 48% 胜率。 机器之心CES 2019专题报道即将到来,欢迎大家积极关注。

1.5K30

伯克利人工智能研究:基于模型强化学习与神经网络动力学

机器人在现实世界自主行动是很困难。即使拥有昂贵机器人和世界研究人员,机器人在复杂、非结构化环境仍然难以自主导航和交互。...在现实世界,现代深度强化学习方法低效率是利用学习为基础方法主要瓶颈之一。 我们一直在研究用神经网络进行机器人控制简单并高效学习方法。...对于复杂模拟机器人,以及现实世界机器人(图1),我们方法能够学习机器运动技能,只使用从机器人在环境随机采集几分钟数据。在这篇博客文章,我们将概述我们方法和结果。...太低地平线是不好,太高也不行 图6:动态模型100步长向模拟(开环),表明对某些状态元素开环预测最终会偏离真实值 我们还改变了用于训练动态模型初始随机轨迹数量。...学习在现实世界运行 图8:这个机器人长约10厘米,重量约为30克,每秒钟可移动27个身长,并使用两个马达来控制6条腿 由于我们基于模型强化学习算法可以使用比无模型算法更少经验来学习移动步态,因此可以直接在一个现实世界机器人平台上进行评估

1.2K50
领券