专栏首页大数据文摘看YouTube学做广播体操?机器人即将掌握人类所有动作 | 一周AI最火论文

看YouTube学做广播体操?机器人即将掌握人类所有动作 | 一周AI最火论文

大数据文摘专栏作品

作者:Christopher Dossman

编译:Olivia、Vicky、云舟

呜啦啦啦啦啦啦啦大家好,本周的AIScholar Weekly栏目又和大家见面啦!

AI ScholarWeekly是AI领域的学术专栏,致力于为你带来最新潮、最全面、最深度的AI学术概览,一网打尽每周AI学术的前沿资讯。

每周更新,做AI科研,每周从这一篇开始就够啦!

本周关键词: 智能机器人、姿态估计、沉浸式交互

本周最佳学术研究

能够“观看和学习”YouTube视频的机器人

机器人世界正在迅速地发展,很快我们就会目睹机器人掌握更多之前只有人类能够掌握的技能。在这篇论文中,研究人员提出了一个激动人心的课题——指导机器人复制视频中的动作。他们解决了机器人对协同动作计划学习的挑战。

研究的目标是让机器人在互联网上“观看”视频、提取视频中的动作序列并将其转换为可执行的计划,使其既可以自主执行、也可以作为机器人团队和人机团队中的一部分来执行。

为了演示该框架的适用性,研究人员输入了一个YouTube视频,该视频演示了一个完整的协作烹饪任务。该框架假定视频中的目标已被标记,并使用一个最新的目标检测模型为每个目标限定一个边界。

技术世界正处于一个令人兴奋的发展阶段,尤其是在机器人技术等机器学习技术不断进步的当下。更令人激动的是,互联网中包含的大量视频内容都可以被机器人用以执行人机团队和机器人团队中的协同任务。

在本文演示中,两个机械臂重现了一个简单的烹饪视频。这是朝着机器人通过在线观看视频来执行一系列操作计划的目标,迈出的重要一步。本文方法的局限性来自最新的目标检测技术需要满足的前提假设等。

原文:

https://arxiv.org/abs/1911.10686

用于六维姿态估计的多视图匹配网络

本文中,研究人员提出了一种新技术,用于估计单个RGB图像中的六维姿态。

该方法结合了目标检测和分割方法,通过将输入图像与渲染图像进行匹配来估计、优化和跟踪目标的姿态。

首先,研究人员使用Mask R-CNN来检测和分割输入图像中感兴趣的目标;然后,使用多视图匹配模型来估计该目标的6D姿态;最后,使用单视图匹配模型完善姿态估计。该方法获得的准确度可与常规RGB姿态估计的最新方法(如PoseCNN + DeepIM)得到的准确度相媲美。

本文为如何扩展独特的模型用于估计、改进和跟踪目标的姿态,提供了新的研究思路。

本项研究提出的方法展示了网络如何自动协助优化和跟踪过程。该方法扩展了一个用于姿态估计、改进和跟踪的姿态优化网络DeepIM,而无需使用外部的初始姿态估计方法。

因此,初始姿态估计网络(如PoseCNN)可能会被可用度高的目标检测网络所取代,而该目标检测网络已通过大型训练数据集进行了训练。

原文:

https://arxiv.org/abs/1911.12330

使用图像分析和检测社会关系

本文中,两名研究人员提出了一种可用于图像集中的面部图表示的方法。该方法根据面部表情、亲近程度、同时出现和头部朝向来分析在一个社交活动中有多少人被联系起来。为了实现这一目标,研究人员定义了集合中每对目标之间的“连通性”测量值,该值代表了他们之间的关联程度。

在下图中,节点表示集合中的主题,边缘表示节点之间的连接。节点越近,主题之间的联系就越紧密。

研究人员还开发了图形用户界面,用户可以在界面中单击节点或边缘来展示存在相连主题的图像集。

文中通过分析婚礼庆典、情景喜剧视频、排球比赛以及从Twitter提取的带有标签的图像提供了较为准确的结果。

的确,人脸识别和分析的最新技术还远远不够完美。因此,为了对社会关系进行更强有力地分析,任何有助于检测和衡量图像集中个人互动的贡献都很重要。

本文提供的工具对于检测图像集中现有的社会关系非常有帮助。未来,研究人员希望通过分析连通性矩阵,将检测目标增加到三人或更多。

原文:

https://arxiv.org/abs/1911.11970

以智能手机为触摸板在大型沉浸式显示器中进行多人交互

自诞生之日起,智能手机就完成了许多曾经被定义为Impossible Mission的任务。在这次的研究中,智能手机可以用作多人空间交互界面的触摸板了!

这项工作背后的研究人员提出了多种方法,合并了用户物理位置、输入设备(如智能手机和蓝牙麦克风)等信息,并将个人和共享屏幕区域进行自动情境化,使多个用户同时与一个大型的沉浸式屏幕进行交互。

个人互动区域出现在矩形封闭屏幕的两侧,用户可以在其中自由移动,选择空间,并操纵或生成相关图像。中间的共享屏幕区域可供多个用户同时使用,这一区域会基于用户选择的图像和预先定义的环境来生成布局。

该方法允许多个用户以自然的方式与较大的视觉沉浸式空间进行交互。

它可以将各种个人设备和语音与空间智能集成在一起,定义个人和共享交互区域,这为利用空间进行应用(包括课堂学习、协作、游戏等)提供了可能性。

视频演示:

https://www.youtube.com/watch?v=KMFVWdSi--4&feature=youtu.be

https://arxiv.org/abs/1911.11751v1

实现有效的Mix-and-Match图像生成

在本文中,研究人员介绍了一个叫做MixNMatch的条件生成模型,它可以学习从真实图像中分离编码背景、对象姿态、形状和纹理因素等。MixNMatch提供了图像生成中的细粒度控制,其中每个因子都可被唯一地控制。

MixMatch在训练期间需要边界框来对背景建模,但不需要其它监督。它以实际参考图像、采样的潜在代码或两者的混合作为输入,以准确分离、编码和组合多个因素,以生成混合匹配图像。

自从生成对抗网络(GAN)发现以来,图像生成已经取得了长足的进步。这项工作演示了如何将来自四个不同图像的各种形状、姿势、纹理和背景进行组合,以创建全新的图像。

通过许多有趣的应用程序(包括sketch2color、cartoon2img和img2gif),图像生成在实现真实图像的最新细粒度对象类别聚类结果方面取得了显著成果。

这一研究目前还存在着一些限制,如MixNmatch未能生成良好的对象掩码,从而生成不完整的对象。

代码/模型/演示:

https://github.com/Yuheng-Li/MixNMatch

原文:

https://arxiv.org/abs/1911.11758v1

其他爆款论文

一种低成本、开源和模块化的软机器人设计和构造套件:

https://arxiv.org/abs/1911.10290

基于数字图像的AI诊断皮肤癌方案研究进展:

https://arxiv.org/abs/1911.11872

一种全新的结合自然语言、视觉和动作的端到端模仿学习方法:

https://arxiv.org/abs/1911.11744

有了这款Pixel Camera app ,妈妈再也不用担心美图秀秀拯救不了我黑灯瞎火拍的照片了:

https://ai.googleblog.com/2018/11/night-sight-seeing-in-dark-on-pixel.html

FBI,open up!新的端到端深度学习框架,可同时预测身份、活动和用户位置:

https://arxiv.org/abs/1911.11743

数据集

图像协调数据集:

https://github.com/bcmi/Image_Harmonization_Datasets

开放式多评分睡眠分期数据集:

https://arxiv.org/pdf/1911.03221v2.pdf

AI大事件

这个基于飞桨(Paddle Paddle)的新对象检测框架在2019谷歌物体识别--目标检测比赛中荣获第二名:

https://arxiv.org/abs/1911.07171

谷歌通过Explainable AI解决黑匣子问题:

https://www.bbc.com/news/technology-50506431

让AI来告诉你,今天你会进医院吗?

https://www.zdnet.com/article/ai-in-healthcare-using-algorithms-to-predict-your-risk-of-ending-up-in-hospital/

阿里巴巴在GitHub上分享了其机器学习算法平台Alink的核心代码:

https://www.zdnet.com/article/alibaba-cloud-publishes-machine-learning-algorithm-on-github/

专栏作者介绍

Christopher Dossman是Wonder Technologies的首席数据科学家,在北京生活5年。他是深度学习系统部署方面的专家,在开发新的AI产品方面拥有丰富的经验。除了卓越的工程经验,他还教授了1000名学生了解深度学习基础。

LinkedIn:

https://www.linkedin.com/in/christopherdossman/

志愿者介绍

后台回复“志愿者”加入我们

点「在看」的人都变好看了哦!

本文分享自微信公众号 - 大数据文摘(BigDataDigest)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2019-12-02

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 用户界面开发自动化,新研究根据设计图自动生成用户界面属性|一周AI最火论文

    呜啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly栏目又和大家见面啦!

    大数据文摘
  • 从AlexNet到BERT:深度学习中那些最重要idea的最简单回顾

    本文作者Denny Britz按时间总结的深度学习比较重要的idea集锦,推荐新人看,几乎给自12年以来最重要的idea 都列了出来,这些 idea 可以说得上...

    大数据文摘
  • 真实 VS 合成,我们需要的真实数据微乎其微?| 一周最火AI论文

    呜啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly栏目又和大家见面啦!

    大数据文摘
  • 用户界面开发自动化,新研究根据设计图自动生成用户界面属性|一周AI最火论文

    呜啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly栏目又和大家见面啦!

    大数据文摘
  • 28篇论文、6 大主题带你一览 CVPR 2020 研究趋势

    首度于线上召开的CVPR 2020 会议已经落下帷幕。今年,大会共有1467篇论文被接收,共举办了29个Tutorial、64个Workshop,线上与会者人数...

    AI科技评论
  • 分类问题 数据挖掘之分类模型

    判别分析是在已知研究对象分成若干类型并已经取得各种类型的一批已知样本的观测数据,在此基础上根据某些准则建立判别式,然后对未知类型的样品进行判别分析。

    用户2909867
  • 不“丢脸”实现人脸识别,使用TiFGAN合成音频 | AI Scholar Weekly

    呜啦啦啦啦啦啦啦大家好,还记得那位在中国向工程师们教授AI的美国老师Christopher Dossman吗?大数据文摘与他取得了联系,并且有幸邀请他开设了专栏...

    大数据文摘
  • OpenCV ImageWatch插件安装与使用说明

    在使用OpenCV时,如果我们想看到一个图片的处理效果,只能把它显示出来,而插入断点调试也只能看到Mat类型变量中的一些信息,看不到图片效果。而ImageWat...

    chaibubble
  • 干货 | 如何选出最“美”图片展示给你?携程做了基于深度学习的图像美感评分系统

    路婵,携程度假AI研发团队算法工程师,专注于计算机视觉和机器学习的研究与应用。现阶段致力于度假图像智能化,多次参加国内外数据竞赛并获奖。

    携程技术
  • (数据科学学习手札09)系统聚类算法Python与R的比较

    上一篇笔者以自己编写代码的方式实现了重心法下的系统聚类(又称层次聚类)算法,通过与Scipy和R中各自自带的系统聚类方法进行比较,显然这些权威的快捷方法更为高效...

    Feffery

扫码关注云+社区

领取腾讯云代金券