今天,谷歌在 GitHub 与 TFHub 上同时发布了 EfficientNet-Lite,该模型运行在 TensorFlow Lite 上,且专门针对移动设备 CPU、GPU 以及 EdgeTPU 做了优化。EfficientNet-Lite 为边缘设备带来了 EfficientNet 上强大的性能,并且提供五个不同版本,让用户能够根据自己的应用场景灵活地在低延迟与高精度之间选择。
之所以说:“吊打YOLOv3”,因为CornerNet-Lite在FPS和mAP上都超过了YOLOv3,具体详见下文介绍。
数说君导读:MNN,Mobile Neural Network,用于在智能手机、IoT设备等端侧加载深度神经网络模型,进行推理预测。支持 Tensorflow、Caffe、ONNX 等主流模型格式,支持 CNN、RNN、GAN 等常用网络。这是阿里开源的首个移动AI项目,已经用于阿里手机淘宝、手机天猫、优酷等20多个应用之中。覆盖直播、短视频、搜索推荐、商品图像搜索、互动营销、权益发放、安全风控等场景。在IoT等移动设备场景下,也有若干应用。
MNN 是一个轻量级的深度学习端侧推理引擎,核心解决深度神经网络模型在端侧推理运行问题,涵盖深度神经网络模型的优化、转换和推理。目前,MNN 已经在手淘、手猫、优酷、聚划算、UC、飞猪、千牛等 20 多个 App 中使用,覆盖直播、短视频、搜索推荐、商品图像搜索、互动营销、权益发放、安全风控等场景,每天稳定运行上亿次。此外,菜鸟自提柜等 IoT 设备中也有应用。在 2018 年双十一购物节中,MNN 在天猫晚会笑脸红包、扫一扫明星猜拳大战等场景中使用。
调试机器学习模型是最痛苦的,因为算法本身不透明,就算运行结果不好,有时你也很难知道问题出在哪里。
NVIDIA在太平洋时间3月8日上午11:00-12:00(北京时间3月9日凌晨3:00-4:00)举办了主题为“AI at the Edge: TensorFlow to TensorRT on J
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/tkokof1/article/details/90728915
机器暴力美学大佬Quoc V. Le 组的最新CVPR 2020 paper, "SpineNet: A Novel Architecture for Object Detection Discovered with Neural Architecture Search" 解读。核心思想是通过搜索特征图尺度重排,解决传统骨干网络尺度持续缩小导致的信息丢失问题。
随着人工智能技术快速发展,这两年涌现出了许多运行在终端的推理框架,给开发者带来更多选择,但也同时增加了将 AI 布署到终端的成本。除了要做推理框架选型,还需要关注数据预/后处理逻辑的稳定性,模型分发使用时的包大小、数据安全等问题。本文将带着这些常见的AI终端侧落地的问题,讲解AoE背后的设计初衷和思路。
手机AI哪家强?这不能仅仅听厂商的宣传。到底有没有一个AI的“安兔兔”来给手机跑个分,客观评价一下手机的AI性能呢?
作为飞桨开源深度学习平台的重要组成部分,Paddle Lite和EasyEdge通过有机组合,可以快速实现基于FPGA的嵌入式AI解决方案,具有高性能、高通用、低成本、易开发等四大优点,适用于开发验证、产品集成、科研教学、项目落地等应用方向,以及安防监控、工业质检、医疗诊断、农作物生长监控、无人驾驶、无人零售等应用场景。
本在本文中,我们将介绍深度学习背景下的模型修剪机制。模型修剪是一种丢弃那些不代表模型性能的权重的艺术。精心修剪的网络会使其压缩版本更好,并且它们通常变得适合设备上的部署。
2018 年 9 月 21 日 ,凌钰城(Google Brain 软件工程师)带来一场《TensorFlow Lite:TensorFlow在移动设备与嵌入式设备上的轻量级跨平台解决方案》的演讲,本文将对演讲做一个回顾。
说过,想设计一种没有边界问题的角度预测方法。这次我就来讲一下初步的进展,也是我最近的一个工作Circular Smooth Label (CSL)。简单来说,CSL总结了目前流行的基于回归方式的角度预测方法都有或多或少的边界问题,一个主要的原因是理想的预测结果超出了我们所定义的范围,导致产生一个较大的损失值,因此CSL通过将角度的回归问题转换成了一个分类问题,限制预测结果的范围来消除这一问题。
文 / Khanh LeViet 和 Luiz Gustavo Martins,技术推广工程师
选自Google 机器之心编译 机器之心编辑部 今年 5 月,谷歌曾在 I/O 大会上宣布即将推出 TensorFlow Lite,今日,谷歌终于发布了新工具的开发者预览版本,这是一款 TensorFlow 用于移动设备和嵌入式设备的轻量级解决方案。TensorFlow 可以在多个平台上运行,从机架式服务器到小型 IoT 设备。但是随着近年来机器学习模型的广泛使用,出现了在移动和嵌入式设备上部署它们的需求。而 TensorFlow Lite 允许设备端的机器学习模型的低延迟推断。在本文中,TensorFlo
我们很高兴展示借助 TensorFlow Lite 在 Raspberry Pi 上构建 Smart Photo Booth 应用的经验(我们尚未开放源代码)。该应用可以捕捉笑脸并自动进行记录。此外,您还可以使用语音命令进行交互。简而言之,借助 Tensorflow Lite 框架,我们构建出可实时轻松处理笑脸检测和识别语音命令的应用。
今年 5 月,谷歌曾在 I/O 大会上宣布即将推出 TensorFlow Lite,今日,谷歌终于发布了新工具的开发者预览版本,这是一款 TensorFlow 用于移动设备和嵌入式设备的轻量级解决方案。TensorFlow 可以在多个平台上运行,从机架式服务器到小型 IoT 设备。但是随着近年来机器学习模型的广泛使用,出现了在移动和嵌入式设备上部署它们的需求。而 TensorFlow Lite 允许设备端的机器学习模型的低延迟推断。在本文中,TensorFlow 团队将向我们介绍 TensorFlow Li
大数据文摘作品 作者:龙牧雪 魏子敏 相隔近半年,谷歌TensorFlow Lite终于正式发布。 11月15日凌晨,谷歌正式发布了TensorFlow Lite开发者预览版(developer preview)。 有了TensorFlow Lite,应用开发者可以在移动设备上部署人工智能。今年5月,谷歌在I/O开发者大会上宣布了TensorFlow Lite项目(见大数据文摘相关报道 Google I/O 2017终于来了:GoogleLens,谷歌云TPU横空出世,Youtube直播打赏受争议) Ten
11 月 14 日,谷歌正式发布 TensorFlow Lite 开发者预览版,这是针对移动和嵌入式设备的轻量级解决方案。在介绍中,谷歌表示,TensorFlow Lite 是一种全新的设计,具有三个重要功能——轻量级(Lightweight)、跨平台(Cross-platform)、快速(Fast)。关于 TensorFlow Lite 的详细介绍,可以参见Google 正式发布 TensorFlow Lite 预览版,针对移动/嵌入设备的轻量级解决方案 而在今天,谷歌宣布与苹果达成合作——TensorF
不过从我对文档的理解来看,感觉更像是添加的一种硬件后端(代理我想应该只是调用调用层面,不是底层实现,另外在Hexagon DSP的委托代理部分,文档坦言说Hexagon DSP的代理就是为了补充NNAPI,特别是针对那些NNAPI不可用DSP加速的、老旧驱动的设备,毕竟这些老旧设备也没有NNAPI这个东西,但有DSP硬件),交给模型的子图来去执行。比方原始模型的CPU执行Graph如上图。交给GPU的委托代理后,原Graph变为下面这样:
本文介绍了TensorFlow Lite的架构设计、功能特性、开发工具包、模型文件格式以及如何在移动和嵌入式设备上部署模型。作为TensorFlow Lite的预览版,它已经支持在Android和iOS平台上运行,并提供了Java API、C++ API和解释器。开发人员可以使用预训练好的模型,例如MobileNet和Inception V3,并将它们应用于自定义的移动和嵌入式设备。
翻译 | 刘畅Troy 谷歌今天终于发布了TensorFlow Lite 的开发者预览!该项目是在5月份的I/O开发者大会上宣布的,据Google网站描述,对移动和嵌入式设备来说,TensorFlow是一种轻量级的解决方案,支持多平台运行,从机架式服务器到微小的物联网设备。近几年来,由于其作为机器学习模型的使用已成倍增长,所以移动设备和嵌入式设备也出现了部署需求。Tensorflow Lite使机器学习模型设备能够实现低延迟的推理。 在本文中,Google展示了TensorFlow Lite的框架构成以
文 /TensorFlow 团队 11 月 14 日,我们宣布了 TensorFlow Lite 的开发者预览版,TensorFlow Lite 是 TensorFlow 面向移动和嵌入式设备的轻量级解决方案。此框架针对机器学习模型的低延迟推理进行优化,占用内存小,并具有快速性能。 📷 在与 Apple 的协作下,我们高兴地宣布对 Core ML 的支持!此次宣布之后,iOS 开发者可以利用 Core ML 的优势来部署 TensorFlow 模型。此外,如最初宣布中介绍的一样,TensorFlow Lit
AI 科技评论按:11 月 14 日,谷歌正式发布 TensorFlow Lite 开发者预览版,这是针对移动和嵌入式设备的轻量级解决方案。在介绍中,谷歌表示,TensorFlow Lite 是一种全新的设计,具有三个重要功能——轻量级(Lightweight)、跨平台(Cross-platform)、快速(Fast)。关于 TensorFlow Lite 的详细介绍,可以参见 AI 科技评论之前报导: Google 正式发布 TensorFlow Lite 预览版,针对移动/嵌入设备的轻量级解决方案 而在
日前,谷歌正式发布 TensorFlow Lite 开发者预览版,这是针对移动和嵌入式设备的轻量级解决方案。TensorFlow Lite 是一种全新的设计,具有三个重要功能——轻量级(Lightweight)、跨平台(Cross-platform)、快速(Fast)。 下面是来自 Google Developers Blog 的详细信息, AI研习社编译如下。 今天,我们正式发布 TensorFlow Lite 开发者预览版,这是针对移动和嵌入式设备的轻量级解决方案。TensorFlow 可以在许多平台上
来源:Google blog 编译:马文 Cecilia 【新智元导读】谷歌宣布推出 TensorFlow Lite,这是 TensorFlow 的针对移动设备和嵌入式设备的轻量级解决方案。这个框架针对机器学习模型的低延迟推理进行了优化,重点是小内存占用和快速性能。利用TensorFlow Lite,即使在半监督的设置下,也可实现在手机端跨平台训练ML模型。 今年早些时候,谷歌推出了 Android Wear 2.0,这是“设备上”(on-device)机器学习技术用于智能通讯的第一款产品。这使得基于云的
AI科技评论消息,日前,谷歌正式发布 TensorFlow Lite 开发者预览版,这是针对移动和嵌入式设备的轻量级解决方案。TensorFlow Lite 是一种全新的设计,具有三个重要特征——轻量级(Lightweight)、跨平台(Cross-platform)、快速(Fast)。 下面是来自 Google Developers Blog 的详细信息,AI科技评论编译如下。 谷歌于今天正式发布 TensorFlow Lite 开发者预览版,这是针对移动和嵌入式设备的轻量级解决方案。TensorFlow
李林 编译整理 量子位 报道 | QbitAI 出品 今天,马斯克和YC总裁Altman等创办的人工智能非营利组织OpenAI,发布了DQN及其三个变体的TensorFlow实现,以及根据复现过程总结的强化学习模型最佳实现方法。 以下是OpenAI博客文章的主要内容,量子位编译: 我们宣布开源OpenAI Baselines,这是我们内部对发表论文的复现,结果能与论文所公布的相媲美。今天要发布的,包括DQN和它的三个变体。接下来的几个月里,我们将继续发布这些算法。 复现强化学习的结果并非易事:模型的性能有很
AI 研习社按:随着深度学习神经网络规模越来越大,训练一个深度神经网络(Deep Neural Networks, DNNs)往往需要几天甚至几周的时间。为了加快学习速度,经常需要分布式的 CPU/GPU 集群来完成整个训练。本文就就来为大家简单简单介绍一下如何进行分布式训练深度学习模型。 在近期 AI 研习社的线上公开课上,来自 IBM 系统部研发工程师武维博士为大家做了一期主题为「深度学习中的分布式训练」的在线分享,错过了直播的同学们如果看了本文有疑惑之处还可以到雷锋网(公众号:雷锋网) AI 慕课学院
TensorFlow Lite是TensorFlow针对移动和嵌入式设备的轻量级解决方案。它可以在移动设备上高效运行机器学习模型,因此您可以利用这些模型进行分类、回归或其他功能,而无需和服务器交互。
网络层与算子融合是非常有效的方法,本文将配合TensorRT与tflite推理框架介绍下网络层与算子融合的原理与应用。
作者 | Jasmeet Bhatia 编译 | KK4SBB 本文将对目前流行的几种Keras支持的深度学习框架性能做一次综述性对比,包括Tensorflow、CNTK、MXNet和Theano。作者Jasmeet Bhatia是微软的数据与人工智能架构师,本文内容仅代表个人观点。 如果现在有人质疑Keras在数据科学家和工程师社区的地位,那么就先请他去看看专业AI和云计算玩家对Keras的支持率吧。官方发布的最新版Keras,除了支持Theano等通用库之外,已经可以支持谷歌的Tensorflow和微
边缘计算时代离我们越来越近,当前嵌入式设备的智能框架还是 TensorFlow Lite比较成熟,这里我准备用一系列免费课程和大家一起讨论下 TensorFlow Lite在移动设备上的应用,让我们的设备智能起来。
TensorFlow用于移动设备的框架TensorFlow Lite发布重大更新,支持开发者使用手机等移动设备的GPU来提高模型推断速度。
嵌入式系统已经成为我们生活中不可或缺的一部分,从智能手机到家用电器,几乎每个设备都搭载了嵌入式技术。随着人工智能的快速发展,将神经网络应用于嵌入式设备上变得越来越普遍。本文将深入探讨嵌入式人工智能的现状,以及神经网络在边缘设备上的应用。
去年,谷歌、斯坦福、伯克利、哈佛、百度、英特尔、AMD等40多家科技企业联合发布了一款致力于衡量机器学习性能的通用标准的系统。
今天凌晨,谷歌一年一度的TensorFlow开发者大会在加州举行。明明应该是一场软件盛会,却被生生开出了硬件发布会的味道。
在本文中,我们将看到如何将Pytorch模型移植到C++中。Pytorch通常用于研究和制作新模型以及系统的原型。该框架很灵活,因此易于使用。主要的问题是我们如何将Pytorch模型移植到更适合的格式C++中,以便在生产中使用。
选自arXiv 作者:施少怀、褚晓文 机器之心编译 参与:陈韵竹、李泽南 随着深度学习应用不断进入商用化,各类框架在服务器端上的部署正在增多,可扩展性正逐渐成为性能的重要指标。香港浸会大学褚晓文团队近日提交的论文对四种可扩展框架进行了横向评测(Caffe-MPI、CNTK、MXNet 与 TensorFlow)。该研究不仅对各类深度学习框架的可扩展性做出了对比,也对高性能服务器的优化提供了方向。 近年来,深度学习(DL)技术在许多 AI 应用当中取得了巨大成功。在获得大量数据的情况下,深度神经网络(DNN)
作者 | Lu Wang、Chen Cen、Arun Venkatesan 和 Khanh LeViet
AI 研习社按:移动设备相较于 PC ,携带便携,普及率高。近年来,随着移动设备的广泛普及与应用,在移动设备上使用深度学习技术的需求开始涌现。
场景描述:今日凌晨,一场技术直播引来了无数人的围观,甚至不惜肝到天明,到底是什么让开发者如此激动?原来是一年一度的 TensorFlow 技术峰会,这场线上直播的盛会,带来了哪些关于 TensorFlow 的信息,本文就将从几个重点进行一次深入的回顾。
虽然移动设备的处理能力和功率都有限。虽然TensorFlow Lite提供了不少的加速途径,比如将机器学习模型转换成定点模型,但总是会在模型的性能或精度上做出让步。
Google决定开源TensorFlow是为了让每个开发人员和研究人员都能方便地使用人工智能来解决多样化的现实问题。自开源以来,TensorFlow的下载次数超过了760万次,提交次数高达8万次,拉取请求13万余次,贡献者2400多名。
http://mpvideo.qpic.cn/0bf2oeaaqaaaqmagboioizpva4odbbyqacaa.f10002.mp4?dis_k=993936e47cdc2b6012ebffd
分布式系统中全局唯一id是我们经常用到的,生成全局id方法由很多,我们选择的时候也比较纠结。每种方式都有各自的使用场景,如果我们熟悉各种方式及优缺点,结合自身的业务,使用的时候才能更好的选择。
怀着激动的心情,我们发布了一个「TensorFlow Lite」示例应用程序(https://www.tensorflow.org/lite),通过它在安卓设备上通过使用「PoseNet」模型来实现人体姿势估计。「PoseNet」是一种视觉模型,它可以通过检测关键身体部位的位置来估计图像或者视频中的人体姿势。例如,该模型可以估计图像中人的手肘和/或膝盖位置。这种姿势估计模型不会鉴别图像中的人是谁,只会找到关键身体部位的位置。
由于处理器性能和电池容量有限,在移动设备上使用计算密集的机器学习模型进行推断是非常耗资源的。 虽然可以采用一种加速途径:转换为定点数模型,但用户已经要求作为一种选项,为加速原始浮点模型推理提供GPU支持,而不会产生额外的复杂性和潜在的量化精度损失。
『基于 AI 技术变革沟通,让世界沟通更简单』一直是 Kika keyboard 最重要的使命。从2016年开始,Kika 技术团队一直致力于 AI 技术在移动端落地,尤其是在 keyboard 输入法引擎做了很多算法与工程上的探索工作。2017 年 5 月,Kika 技术团队基于 TensorFlow Mobile 研发了 Kika AI Engine,将其应用于 Kika 的全系输入法产品中。2017 年 11 月,Google 发布 TensorFlow Lite (TF Lite) 后,Kika 技术团队迅速进行了跟进,并于 2018 年 1 月成功地开发了基于 TF Lite 全新一代的 Kika AI Engine,同时进行了线上产品的更新。
领取专属 10元无门槛券
手把手带您无忧上云