首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >视频 | MIT和FB搞了个视频数据集,让Youtube视频审查更容易

视频 | MIT和FB搞了个视频数据集,让Youtube视频审查更容易

作者头像
AI科技评论
发布2018-04-18 17:25:52
1K0
发布2018-04-18 17:25:52
举报

创建这样的数据集是一项非常艰巨的工作,因为它包含超过 50 万个视频,为 200 个不同的活动提供近 200 万个注释,并且还有很多预处理步骤需要执行才能使其可用。

AI 科技评论按:这里是雷锋字幕组编译的 Two minutes paper 专栏,每周带大家用碎片时间阅览前沿技术,了解 AI 领域的最新研究成果。

原标题:SLAC Dataset From MIT and Facebook

翻译 | 祁晓君 字幕 | 凡江 整理 | 廖颖

论文标题:SLAC: A Sparsely Labeled Dataset for Action Classification and Localization

视频内容

▷每周一篇2分钟论文视频解读

本期论文即将介绍的这个项目,用到了麻省理工学院和 Facebook 联合创建的数据集,该数据集名为 SLAC(Sparsely Labeled ACtions),用于动作识别和定位。它包含 520K 以上的未修剪视频和1.75M剪辑注释,涵盖 200 个动作类别。该论文提出的框架使得注释视频剪辑花费的时间更少,仅为 8.8秒 ,与传统的手动修剪和动作定位程序相比,标记时间节省超过 95%。

一般来讲,数据集的目的是用来训练和测试学习算法的质量。本期视频提到的这类数据集包含了很多剪辑的短视频,这些短视频片段被传递给一个神经网络,由神经网络来对视频中发生的活动进行分类。在这个数据集中,神经网络在很多场景都会给出一个错误的逻辑答案。很简单,人类知道——我们可能会在一个装有攀岩墙的房间里,但我们不一定会锻炼;我们可能在游泳池附近,但我们不一定游泳。让神经网络知道有一个游泳池边可能发生游泳这个事情是非常容易的,但真正了解游泳是什么,却需要它对大量的数据进行理解。

创建这样的数据集是一项非常艰巨的工作,因为它包含超过 50 万个视频,为 200 个不同的活动提供近 200 万个注释,并且还有很多预处理步骤需要执行才能使其可用。

所有这些视频都经过镜头和人物检测步骤,提取了包含某种人类活动的相关子片段。然后用两个不同的分类器查看,查看结果是根据两者之间是否存在共性,来决定这段视频剪辑是否被丢弃。这一步骤使得负面样本变得更难,因为上下文可能是正确的,但预期的活动可能并不是那样。一个典型的游泳池例子,就是穿着泳装的人,只是在摆弄手指,而不是在游泳。

更有趣的部分是——当我们试图训练神经网络来处理其他松散相关的任务时,使用这个数据集进行预训练可显著提高分数。图中给出了一些数字,这些数字是非常不可思议的——有些案例的成功率提高了 30%以上,这本身就说明了问题。但是在其他情况下,差异约为 10-15%,这种差异在成功率很高时也很明显。因为分类器越接近100%,下面剩下的案例就越难提高准确性。在这些情况下,即使是 3%的改善也是显著的。

论文原文: https://arxiv.org/pdf/1712.09374.pdf

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-04-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档