展开

关键词

面向未来的测试框架 -- AVA

本文作者:IMWeb 邝伟科 原文出处:IMWeb社区 未经意,禁止转载 ? 整个2016年前端圈还是一如既往的长江后浪推前浪,其中测试框架也不例外,mocha跟jasmine已经不是当前前端最火的测试框架了,而是一个面向未来的测试框架:AVA 看一个框架首先看这个框架介绍文档的第一句话 从AVA github 的 README 第一句看出,AVA自己定义跟其他测试框架的最大区别多线程,包括 跑测试 不文件多线程时跑 每个测试在单独的线程单独跑要求每个测试必须是单独的,不依赖外部变量的 另外,介绍文档中还给出了AVA的其他优势,其中有几点我觉得比较好: 快,AVA多线程的优势让AVA比其他测试框架快很多,官方文档说一个Pageres从Mocha迁到AVA,测试耗时从31s 减少到 11s

44370

面向未来的测试框架 -- AVA

本文作者:IMWeb 邝伟科 原文出处:IMWeb社区 未经意,禁止转载 整个2016年前端圈还是一如既往的长江后浪推前浪,其中测试框架也不例外,mocha跟jasmine已经不是当前前端最火的测试框架了 ,而是一个面向未来的测试框架:AVA 看一个框架首先看这个框架介绍文档的第一句话,从中可以看出作者对这个这个框架的定位: ? 从AVA github 的 README 第一句看出,AVA自己定义跟其他测试框架的最大区别多线程,包括 跑测试 不文件多线程时跑 每个测试在单独的线程单独跑要求每个测试必须是单独的,不依赖外部变量的 另外,介绍文档中还给出了AVA的其他优势,其中有几点我觉得比较好: 快,AVA多线程的优势让AVA比其他测试框架快很多,官方文档说一个Pageres从Mocha迁到AVA,测试耗时从31s 减少到 11s

36110
  • 广告
    关闭

    90+款云产品免费体验

    提供包括云服务器,云数据库在内的90+款云计算产品。打造一站式的云产品试用服务,助力开发者和企业零门槛上云。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    谷歌新发布了一个精确标注动作的数据集,堪称ImageNet视频版

    但是,复杂的场景下,标注了多人执行不操作的数据集在业内依然空白。 为了促进对人类动作识别的进一研究,我们发布了AVA(atomic visual actions)。 相比其他的动作数据集,AVA数据集有以下这些特点: 以人为中心进行标注:每个动作标签都基于人物本身,而不是一段视频或者剪辑片段。因此,我们能够为不动作中的各类人加上不的标签,这一点非常常见。 真实视频作为视觉材料:我们使用不题材和国家的电影作为AVA的标注材料,进而确保数据库中包含各类型的人类行为。 ? 图:AVA时出现最多的“动作组合” (吹黑管的小编哭晕,永远不能一边唱歌一边演奏呢) 为了验证AVA数据集中人类动作识别系统的有效性,我们在AVA上实现了一个已有的深度学习基准模型,这个模型在一个小得多的 我们希望AVA的发布能推动动作识别的进,并为多人时执行复杂动作标签之上的建模提供机会。我们会持续扩大和改进AVA,并且非常希望得到你们的反馈。

    59240

    动态 | 谷歌发布AVA数据库:5万个精细标注视频片段,助力识别人类动作

    为了进一研究识别人类动作的技术,AI科技评论了解到,谷歌发布了AVA (Atomic Visual Actions)数据库,意思是“原子视觉动作”,这一新数据集为扩展视频序列中的每个人打上了多个动作标签 常见的场景是一场景中有多个人在执行不动作,为这些动作分配不的标签。 基于原子视觉动作:谷歌将动作标签限制在精细的时间尺度(3秒),在这个尺度上动作都是物理动作,并具有清晰的视觉特征。 基于真实视频资料:谷歌把电影作为AVA的数据来源,包括不国家、不流派的电影。因此,数据源覆盖了大部分人类行为。 ? 图2. 3秒视频片段中间帧中的红色边框标注(为清晰起见,每个示例仅显示一个边界框) 为了创建AVA,谷歌首先从YouTube收集了大量多样化的视频内容,内容集中在是电影和电视这两个类别,视频里有不国籍的专业演员 下图展示了AVA中最有可能并发的动作对及其时出现的频率分值,例如人们经常在唱歌时玩乐器,和小孩玩耍的时抱起他,亲吻时拥抱。 ? 图4.

    626130

    谷歌发布 AVA 数据库:5 万个精细标注视频片段,助力识别人类动作

    为了进一研究识别人类动作的技术,AI研习社了解到,谷歌发布了 AVA (Atomic Visual Actions) 数据库,意思是 “原子视觉动作”,这一新数据集为扩展视频序列中的每个人打上了多个动作标签 常见的场景是一场景中有多个人在执行不动作,为这些动作分配不的标签。 基于原子视觉动作:谷歌将动作标签限制在精细的时间尺度(3 秒),在这个尺度上动作都是物理动作,并具有清晰的视觉特征。 基于真实视频资料:谷歌把电影作为 AVA 的数据来源,包括不国家、不流派的电影。因此,数据源覆盖了大部分人类行为。 ? 图 2. 3 秒视频片段中间帧中的红色边框标注 (为清晰起见,每个示例仅显示一个边界框) 为了创建 AVA,谷歌首先从 YouTube 收集了大量多样化的视频内容,内容集中在是电影和电视这两个类别,视频里有不国籍的专业演员 下图展示了 AVA 中最有可能并发的动作对及其时出现的频率分值,例如人们经常在唱歌时玩乐器,和小孩玩耍的时抱起他,亲吻时拥抱。 ? 图 4.

    51980

    VSCO不止有滤镜,还要教机器理解照片背后的艺术韵味

    Ava为这张图片自动打上了“沙子、沙漠、尘土、干燥、干旱、空旷、沙滩” Ava可以查看该平台上的每一张照片,识别关键参数,然后使用这些信息帮助用户与风格类似的创作者建立联系。 例如,Sens已经可以让该公司在iOS上支持高品质RAW文件,时在该应用中引入短视频功能。 “最令我们振奋的在于,我们今后可以用它来做什么。” Ava的这项技术是基于他们多年以来通过人工处理流程积累的数据。 “我们试图迫使Ava从不角度看待摄影作品。” 我们已经掌握了这些数据,然后对Ava展开了针对性训练。” 人类分拣员不会失业。相反,他们可以帮助Ava掌握更多知识。“我们的团队会说‘这不够准确’,然后让Ava用更新后的数据继续训练Ava。” 但在内容需求增加的时,这些代理商和企业的预算并没有保持增长。 “我们相信自己能够帮助行业解决这个问题。”VSCO营销副总裁基尼·派克(Gne Paek)说。

    47250

    配置一个简单而实用的 JavaScript 开发环境

    对这个骤有人喜欢有人愁。但不管怎样,它可能总是花掉你很多时间,你得不停地调整你配置的方方面面。 通常来说,这些“开箱即用”的工具是完全可以接受的,并将帮助我们直接解决问题,时还能提供几乎实时的反馈闭环。 下面是一个帮助你用五分钟或者更少的时间(取决于 NPM 的心情^^)一从无到有建立开发环境的骤: 初始化 Node.js 项目和 Git 仓库 # Create a directory and cd 样,提交 Git 提交时,这些脚本也会被自动运行。除非你的测试和代码检查都通过,否则你无法提交代码。 而遵循上面的骤将让你可以达到这一目的。 一但你的项目开始增长,你可能会发现自己需要引入一些更复杂的东西。然而,在大部分情况下,这一问题不会出现。上面那些工具会在很长很长一段时间内符合你的需求。

    78420

    谷歌发布电影动作数据集AVA,57600精准标注视频教AI识别人类行为

    因此,我们能够为在一场景中执行不动作的多个人分配不的标签,这是种情况很常见。 原子视觉动作(Atomic visual actions)。 我们使用不类型、不国家的电影作为AVA的数据源,因此,数据中包含了广泛的人类行为。 ? 3秒视频片段示例,每个片段的中间帧都有边界框标注。 AVA 中共出现频率最高的动作对 这项技术可以帮助谷歌分析 YouTube 上的视频。它可以应用来更好地投放定向广告,或用于内容过滤。 作者在相应的研究论文中写道,最终的目标是教计算机社会视觉智能(social visual intelligence),即“理解人类正在做什么,他们下一将会做什么,以及他们想要达到的目的。” ? AVA 数据集的动作标签分布(x轴只包括了词汇表中的一部分标签) AVA 数据集包含 57600 个标记好的视频,详细记录了80类动作。

    80250

    资源 | 谷歌发布人类动作识别数据集AVA,精确标注多人动作

    现有的数据集不包含多人不动作的复杂场景标注数据,今日谷歌发布了精确标注多人动作的数据集——AVA,希望能够帮助开发人类动作识别系统。 与其他动作数据集相比,AVA 具备以下关键特征: 以人类为中心的标注。相比于视频或片段,每个动作标签都与人类更加相关。因此,我们能够向一场景中执行不动作的多人分配不的标签,而这种场景非常常见。 我们使用不类型和国家的电影作为 AVA 的数据源。因此,数据覆盖大范围的人类行为。 ? 3 秒视频片段示例,每个片段的中间帧都有边界框标注。(为清晰起见,每个示例仅显示一个边界框。) 为创建 AVA,我们首先从 YouTube 上收集了大量多样化的数据,主要集中在「电影」和「电视」类别,选择来自不国家的专业演员。 由于存在可变焦距、背景杂乱、摄影和外观的不情况,该模型在 JHMDB dataset 上的性能与在 AVA 上准确识别动作的性能(18.4% mAP)相比稍差。

    1.4K70

    快慢结合效果好:FAIR何恺明等人提出视频识别SlowFast网络

    自然图像在第一次近似时具备各向性(所有方向具有相的可能性)和平移不变性 [38, 23]。那么视频信号 I(x, y, t) 呢? 动作是方向的时空对应 [1],但并非所有的时空方向都拥有相的可能性。 例如,挥手并不会在这个动作进行期间改变「手」的识别结果,某个人始终在「人」这一类别下,即使他/她从走路切换到跑。因此类别语义(及其色彩、纹理和光线等)的识别可以以比较慢的速度进行刷新。 时,由于时间速率较低,Slow 路径可以更加关注空间域和语义。通过以不的时间速率处理原始视频,该方法允许两种路径以其特有的方式对视频建模。 长由 {temporal stride, spatial stride^2} 表示。此处 速度比例是α = 8,通道比例是 β = 1/8。τ = 16。

    41250

    谷歌新开放了一个数据库,要让机器自动识别视频中的动作行为 | 技术

    谷歌希望通过开放这个数据库,进一改进他们基于视频识别的机器视觉能力。 谷歌在机器视觉学习方面积累大量的数据以及技术,最近,他们推出了一个新的视频数据库,名称为“原子视觉行为(AVA)“,该数据可由一个或多个标签组成,能够推动计算机视觉识别影像中行为的研究。 ? 相较于这些发生在静态图像领域的机器视觉识别技术,应用到视频中的难度会更大,因为在视频中,每一帧画面的都包括各种复杂的场景,而且很多时候视频中一个动作是由不的人发出的。 所以谷歌推出了这个AVA数据库,AVA包括80多个被动作标签标注的Youtube视频网址,比如握手、接吻、喝酒、拥抱等等。 谷歌希望通过开放这个数据库,进一改进他们基于视频识别的机器视觉能力。

    43300

    何恺明等最新突破:视频识别快慢结合,取得人体动作AVA数据集最佳水平

    AVA 动作检测数据集上,样实现了 28.3 mAP 的最佳水准。 (即所有方向具有相的可能性)和平移不变性。 长表示为 {temporal stride, spatial stride^2}。此外,速度比率是α = 8,通道比率是 β = 1/8。τ = 16。 而在 AVA 动作检测数据集上,该网络样实现了 28.3 mAP 的当前最佳水准。 总的来说,时间维度是视频任务中一个特殊的因素,本文的 SlowFast 网络框架考虑时间维度上不的速度对时空信息捕捉的影响,实例化的 SlowFast 模型在 Kinetics 和 AVA 数据集上实现当前最佳的视频动作分类和检测结果

    56720

    何恺明等最新突破:视频识别快慢结合,取得人体动作AVA数据集最佳水平

    AVA 动作检测数据集上,样实现了 28.3 mAP 的最佳水准。 (即所有方向具有相的可能性)和平移不变性。 长表示为 {temporal stride, spatial stride^2}。此外,速度比率是α = 8,通道比率是 β = 1/8。τ = 16。 而在 AVA 动作检测数据集上,该网络样实现了 28.3 mAP 的当前最佳水准。 总的来说,时间维度是视频任务中一个特殊的因素,本文的 SlowFast 网络框架考虑时间维度上不的速度对时空信息捕捉的影响,实例化的 SlowFast 模型在 Kinetics 和 AVA 数据集上实现当前最佳的视频动作分类和检测结果

    41310

    纯Deep Learning干货 | 快慢网络用于视频识别(文末有源码)

    例如,挥手并不会在这个动作进行期间改变手的识别结果,某个人始终在人这一类别下,即使他/她从走路切换到跑。因此类别语义的识别可以以比较慢的速度进行刷新。 时,由于时间速率较低,Slow 路径可以更加注重空间域和语义。通过以不的时间速率处理原始视频,该方法允许两种路径以其特有的方式对视频建模。 慢路径中的关键概念是一个大时间长τ在输入帧,即这过程中只有一个τ帧。我们研究的典型值τ为16,即这种刷新速度大约每秒2帧采样在30fps的视频中。 长由 {temporal stride, spatial stride^2} 表示。此处速度比例是α = 8,通道比例是β = 1/8,τ = 16。 AVA 动作检测基线:Slow-only vs. SlowFast ? SlowFast 模型在 AVA 数据集上的更多实例 ?

    46240

    Linux上配置Unix ODBC连接Oracle数据库

    今天成功安装配置了UnixOdbc把骤总结一下供参考。 UnixOdbc可以在官方站点上下载。 以下是测试及配置骤: 首先你需要安装Oracle客户端,并且确认网络可达。 server = 172.16.1.21 ServerType = Oracle Port = 1521 User = username Password = password Database = ava SID = ava METADATA_ID = 0 ENABLE_USER_CATALOG = 1 ENABLE_SYNONYMS = 1 [default] Driver = /usr/local Pooling=No 4.sqlnet.ora文件配置 NAMES.DIRECTORY_PATH= (TNSNAMES, ONAMES, HOSTNAME) 5.tnsnames.ora文件配置 ava ADDRESS = (PROTOCOL = TCP)(HOST = 172.16.18.21)(PORT = 1521)) ) (CONNECT_DATA = (SID = ava

    89220

    豆瓣7.6,这部被低估的科幻片告诉你,通过图灵测试的AI有多可怕!

    在这里,Nathan也又一次表达了人工智能跟人类的相之处:Ava不是最终版,正如你我也不是人类的最终版一样,终将被后来者替掉。 看到Caleb仍然处于失望中,Nathan抛出了另一段经典台词: ? 看到这里,作为观众的时,如果你也是“主考官”,你会发现Ava也通过了你的图灵测试——Ava跟人类一样,有自己的欲望、有自己的审美,自私、残暴、懂得欺骗…… 这就是人工智能通过图灵测试的后果——跟人类一样 ,意味着人工智能不但拥有人类的优点,也样拥有人类的缺点。 03 脆弱的“机器人三定律” 我之所以很喜欢这部电影,也可能是因为我对它的期待不。 回到现实中,《大话机器人》介绍了从工业到家庭,不类型、不功能的各种机器人的应用。可以说,机器人已经无处不在,你的生活每天都会被机器人影响。

    34720

    给库加上酷炫的小徽章 & ava、codecov、travis 示例

    AVA 谈到测试覆盖率必须先有单元测试,本文使用 ava 作为示例, ava 是一个 js 测试库,强烈推荐你使用它。 1、安装 npm init ava 2、使用示例 编写 test.js 文件: import test from 'ava' import Memcached from '.. error) { t.fail(error.message); } }); test('unit test title', t => { t.pass(); }); 说明: ava 为此,本文选择了 codecov 平台,我们需要使用 GitHub 账号登录 codecov 并关联我们的 repository 库,时我们需要生成一个 token 令牌以便后续使用。 Travis-ci 本文使用 travis-ci 来做持续集成,样的你需要使用 GitHub 账号登录 travis-ci 并关联我们的 repository 库。

    35930

    GraphQL测试实践

    所以第一个不就是GraphQL 缺失了path。但从请求URL上我们无法辨别GraphQL到底干了什么,我需要进一的观察请求的body REST api 请求POST带的请求的数据。 样GraphQL它也是发送的POST请求,也是带的数据。 但是不点就在于内容。我们来看看GraphQL Body ? 骤三 利用Postman test script 来编写对应检查点 ? ,因为它支持并发,能够帮我们进一的提升测试效率。 安装依赖库 npm init -ynpm i --save-dev mocha chai ava 测试代码如下 import test from 'ava'; import { expect,should

    88530

    相关产品

    • 数据传输服务

      数据传输服务

      腾讯云数据传输服务(DTS)支持 多种关系型数据库迁移及 NoSQL 数据库迁移,可帮助用户在业务不停服的前提下轻松完成数据库迁移上云,利用实时同步通道轻松构建高可用的数据库容灾架构,通过数据订阅来满足商业数据挖掘、业务异步解耦等场景需求。 

    相关资讯

    热门标签

    扫码关注云+社区

    领取腾讯云代金券