动态 | 谷歌发布AVA数据库:5万个精细标注视频片段,助力识别人类动作

AI科技评论按:在计算机视觉研究中,识别视频中人的动作是一个基础研究问题。个人视频搜索和发现、运动分析和手势交流等应用中,都会用到这项至关重要的技术。尽管过去的几年里在图像中分类和识别物体的技术上,我们已经取得了令人振奋的突破,但识别人类的动作仍然是一个巨大的挑战。从本质上来说,视频中人的行为更难被明确定义,而物体的定义更为明确。所以构建精细动作标记的视频数据集非常困难。目前虽然有许多基准数据集,比如UCF101、ActivityNet和DeepMind Kinetics,采用基于图像分类的标签方案,为数据集中的每个视频或视频片段分配一个标签,但不存在面向复杂场景的视数据集,比如同一时刻多人不同动作的场景。

为了进一步研究识别人类动作的技术,AI科技评论了解到,谷歌发布了AVA (Atomic Visual Actions)数据库,意思是“原子视觉动作”,这一新数据集为扩展视频序列中的每个人打上了多个动作标签。 AVA数据集由YouTube公开视频的URL组成,这些视频被80个原子动作标注,例如走路,踢东西,握手等,所有动作都具有时空定位,产生5.76万个的视频片段,9.6万个人类动作,以及21万个的动作标签。

您可以访问AVA网站,来探索数据集和下载标注,您也可以阅读谷歌发表于arXiv上的论文,了解该数据集的设计和开发。

图1. AVA网站截图

与其他动作标签数据集相比,AVA具有以下主要特点:

  • 基于人的标签:每个动作标签都与人相关联,而不是与整段视频或剪辑关联。常见的场景是同一场景中有多个人在执行不同动作,为这些动作分配不同的标签。
  • 基于原子视觉动作:谷歌将动作标签限制在精细的时间尺度(3秒),在这个尺度上动作都是物理动作,并具有清晰的视觉特征。
  • 基于真实视频资料:谷歌把电影作为AVA的数据来源,包括不同国家、不同流派的电影。因此,数据源覆盖了大部分人类行为。

图2. 3秒视频片段中间帧中的红色边框标注(为清晰起见,每个示例仅显示一个边界框)

为了创建AVA,谷歌首先从YouTube收集了大量多样化的视频内容,内容集中在是电影和电视这两个类别,视频里有不同国籍的专业演员。每个视频分析其中15分钟的剪辑片段,并这个片段均匀分割成300个不重叠小片段,每一段3秒钟,这种采样策略保留了动作序列的时间顺序。

接下来,在每个3秒片段的中间帧,手动标记边框里的人。打标者从预定义的80个原子动作词汇中,选择适当数量的标签来描述人物的行为动作。这些行为分为三组:姿态/移动动作、人和物体的交互、人与人的交互。因为对所有人的动作都进行了全面打标,因此AVA的标签频率是呈现长尾分布的,如下图所示。

图3. AVA的原子动作标签频次分布图(x 轴所示标签只是词汇表的一部分)

由于AVA的独特设计,我们可以从中能够得出一些有趣的统计信息,而这些信息从其他现有数据集中是统计不出来的。例如,数据集中多数人具有两个以上的动作标签,那么我们可以找出不同行为标签共现模式(co-occurrence pattern)。下图展示了AVA中最有可能并发的动作对及其同时出现的频率分值,例如人们经常在唱歌时玩乐器,和小孩玩耍的时抱起他,亲吻时拥抱。

图4. AVA中统计得出共现频率分值最高的动作对

为了评估AVA数据集在人类行为识别系统中的有效性,谷歌设计了一个现有的基线深度学习模型,该模型在较小的JHMDB数据集上获得了很好的绩效。由于视频变焦、背景杂乱、摄影角度和外貌变化等问题,该模型实现了较为不错的表现,正确识别AVA中动作的平均准确率达到18.4%,这表明AVA数据集可用于开发和评估新的动作识别架构和算法。

谷歌希望AVA的发布能加速人类动作识别系统的发展。基于具有精细时空粒度的标签,对个人复杂活动进行建模将变为现实。谷歌将继续扩充和改进AVA,并渴望听取来自社区的反馈,帮助校正AVA数据集未来的发展方向。请加入AVA Mail List(https://groups.google.com/forum/#!forum/ava-dataset-users),即可获得数据集更新,并向谷歌发送电子邮件反馈建议。

via Announcing AVA: A Finely Labeled Video Dataset for Human Action Understanding

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-10-24

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏大数据文摘

科技网红Siraj最新油管视频:如何用4分钟搭建神经网络

1598
来自专栏新智元

【重磅】百度通用 AI 大突破,智能体通过交互式学习实现举一反三

【新智元导读】百度IDL研究员徐伟、余昊男、张海超提出了一个新的框架,通过多任务强化学习和零数据学习,让智能体在没有先验知识的情况下,自己学会了结合语言和视觉两...

4269
来自专栏大数据文摘

还敢说自己是TED粉吗? 连哪个演讲最爆款都不知道!

1483
来自专栏量子位

Caffe2推出强化学习库,包含多个基于Caffe2的RL实现

安妮 编译自 Caffe2.ai 量子位 出品 | 公众号 QbitAI 今年4月,Facebook正式发布了轻量化和模块化的深度学习框架Caffe2。将近5个...

3217
来自专栏机器学习算法与Python学习

干货|机器学习算法工程师速查表大全

关键字全网搜索最新排名 【机器学习算法】:排名第一 【机器学习】:排名第二 【Python】:排名第三 【算法】:排名第四 该内容是Kailash Ahirwa...

3018
来自专栏机器之心

资源 | 利用深度强化学习框架解决金融投资组合管理问题(附 GitHub 实现)

选自GitHub 作者:Zhengyao Jiang、Dixing Xu、Jinjun Liang 机器之心编译 参与:路雪 近日,《A Deep Reinfo...

2696
来自专栏AI研习社

手把手教你入门使用 tf-slim 库 | 回顾

tf-slim 是基于 tensorflow 的高层封装库,包含了目前最新的 reset-net,Google-Inception 等网络的实现及图像处理算法,...

3734
来自专栏AI研习社

手把手教你入门使用tf-slim库 | 回顾

tf-slim是基于tensorflow的高层封装库,包含了目前最新的reset-net,Google-Inception等网络的实现及图像处理算法,支持多GP...

3896
来自专栏AI研习社

野外动物监测图像挑战赛:预测捕捉到的野外图像是否包含动物

野外相机能够自动收集大量的图像信息,不过不幸的是,收集到的大量图片都是误报,这些错误大多是由非动物引起的,比如草木的晃动。 本次比赛旨在预测白天和晚上从各个地点...

3209
来自专栏机器之心

在Mac上训练机器学习模型,苹果WWDC发布全新Create ML、Core ML 2

1962

扫码关注云+社区