首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌发布人体图像分割工具BodyPix 2.0,支持多人识别,可在iPhone上流畅运行

使用默认设置情况下,BodyPix可以15寸MacBook Pro上以25 fps速度估计,并渲染人和身体部位分割。而在iPhone X上,BodyPix能以21 fps速度进行估计。...BodyPix于今年2月推出,本次2.0版主要更新有:对多人图像支持、增加基于ResNet-50模型、新API、权重量化以及对不同尺寸图像支持。...身体不同部位对应编码如下表所示: ? 把结果输出图像上 BodyPix还包含其他实用程序功能,可以将输出结果与原始图像合成,得到你所需渲染图像。...为了估计身体部位分割,BodyPix使用相同MobileNet表示,但是这次通过预测额外24个通道输出张量P来重复上述过程,其中二十四是身体部位数量。每个通道编码身体某部位是否存在概率。...输出张量P中有24个通道,因此需要在24个通道中找到最佳部分。推断期间,对于输出身体部位张量P每个像素位置(u,v),body_part_id使用以下公式选择属于第i个部位概率最高像素: ?

1.3K10

谷歌发布人体图像分割工具BodyPix 2.0,支持多人识别,可在iPhone上流畅运行

使用默认设置情况下,BodyPix可以15寸MacBook Pro上以25 fps速度估计,并渲染人和身体部位分割。而在iPhone X上,BodyPix能以21 fps速度进行估计。...BodyPix于今年2月推出,本次2.0版主要更新有:对多人图像支持、增加基于ResNet-50模型、新API、权重量化以及对不同尺寸图像支持。...身体不同部位对应编码如下表所示: ? 把结果输出图像上 BodyPix还包含其他实用程序功能,可以将输出结果与原始图像合成,得到你所需渲染图像。...为了估计身体部位分割,BodyPix使用相同MobileNet表示,但是这次通过预测额外24个通道输出张量P来重复上述过程,其中二十四是身体部位数量。每个通道编码身体某部位是否存在概率。...输出张量P中有24个通道,因此需要在24个通道中找到最佳部分。推断期间,对于输出身体部位张量P每个像素位置(u,v),body_part_id使用以下公式选择属于第i个部位概率最高像素: ?

61410
您找到你想要的搜索结果了吗?
是的
没有找到

谷歌发布人体图像分割工具BodyPix 2.0,支持多人识别,可在iPhone上流畅运行

使用默认设置情况下,BodyPix可以15寸MacBook Pro上以25 fps速度估计,并渲染人和身体部位分割。而在iPhone X上,BodyPix能以21 fps速度进行估计。...BodyPix于今年2月推出,本次2.0版主要更新有:对多人图像支持、增加基于ResNet-50模型、新API、权重量化以及对不同尺寸图像支持。...身体不同部位对应编码如下表所示: ? 把结果输出图像上 BodyPix还包含其他实用程序功能,可以将输出结果与原始图像合成,得到你所需渲染图像。...为了估计身体部位分割,BodyPix使用相同MobileNet表示,但是这次通过预测额外24个通道输出张量P来重复上述过程,其中二十四是身体部位数量。每个通道编码身体某部位是否存在概率。...输出张量P中有24个通道,因此需要在24个通道中找到最佳部分。推断期间,对于输出身体部位张量P每个像素位置(u,v),body_part_id使用以下公式选择属于第i个部位概率最高像素: ?

1.2K40

用PaddleClas实现酒标识别,让你秒变“鉴酒达人”

其中飞桨图像分类套件PaddleClas提供了丰富图像分类模型资源,覆盖ResNet_vd、MobileNetV3等23种系列分类网络结构以及对应117个分类预训练模型,用户可根据自己需求,针对不同场景选择相应模型进行训练使用...同时采用飞桨轻量化推理引擎Paddle Lite实现移动端轻量化部署和高效预测,最终测试数据上达到了超过97%识别准确率。 案例实现过程详尽回放 1....模型训练 基于模型最终实际使用场景,我们采用MobileNetV2模型作为分类模型,它可以看做是一种MobileNetV1和ResNet结合,MobileNetV1引入深度可分离卷积降低计算量和参数量基础上...飞桨轻量化推理引擎Paddle Lite专门用于实现包括手机移动端在内端侧轻量化高效预测,是一个高性能、轻量级深度学习预测引擎。...图4 “百瓶App”识别结果 结语 飞桨提供了涵盖丰富模型资源图像分类套件PaddleClas,针对不同任务有不同适配模型,用户可根据自己需求,针对不同场景灵活选择相应模型;并且通过飞桨轻量化推理引擎

97510

Paddle Lite新增ARM端图像预处理库

2.新增按模型集合裁剪预测功能。开发者可以通过该功能只保留给定多个模型线上预测所需要op和kernel,从而压缩预测库体积。 3.优化报错信息,Android中支持原生系统报错。...MobileNetV1、 MobileNetV2、ReseNt50 支持飞桨量化训练方法产出权重量化方式为channel_wise_abs_max量化模型 f.预测库整理 重新整理核心库包含(basic...) op&kernel,使基础预测库(build_extra=OFF)支持CV类9个经典模型(包括飞桨原生模型和对应 X2Paddle第三方转化模型)和3个量化模型,且tiny_publish下预测动态库体积不变...、ShuffleNet_v2 3个int8量化模型:MobileNetV1、MobileNetV2、ResNet50 2.性能优化 主流模型性能优化持续迭代。...API接口介绍文档: https://paddlepaddle.github.io/Paddle-Lite/v2.1.0/cv/ 新增部署训练后量化模型使用示例文档: https://paddlepaddle.github.io

55010

技术公开课实录:飞桨高性能端侧推理引擎Paddle Lite技术解析

2019年8月份初始发布,10月末发布2.0正式版,为开发者提供与百度内部项目相同能力。...2.5 量化计算支持 量化计算是神经网络计算趋势。神经网络有信息冗余特点,即使使用低精度计算也能保证效果,基于这个优点,各硬件平台都通过量化计算来提供更快,功耗体积更有优势硬件。...支持多种图像预处理操作,如图像旋转、翻转等。 支持图像数据到tensor转换,如RGB_To_NCHW(Tensor)等。 相关功能性能优于 OpenCV 处理速度。 增加多个模型裁剪预测库功能。...升级量化模型支持 支持PaddlePaddle训练后量化方法产出量化模型,比如mobilenet_v1、 mobilenet_v2、resnet50,使用方法请参考文档。...新增部署训练后量化模型使用示例文档。

1K20

PaddlePaddle升级解读 |PaddleSlim为你模型瘦身

量化 PaddleSlim 为开发者提供在训练过程中对量化进行建模以确定量化参数 Quantization Aware Training 量化模式,提供更高预测精度。...剪切:对预训练好 MobileNetv1 进行剪切 量化:对预训练好 MobileNetv1 进行 int8 量化训练 蒸馏量化组合:先用 ResNet50 对 MobileNetv1 进行蒸馏,再对蒸馏后得到模型进行...剪切量化组合:先用 Uniform 剪切策略对 MobileNetv1 进行剪切,再对剪切后模型进行 int8 量化训练 本示例完整代码链接:https://github.com/PaddlePaddle...本示例中五个压缩策略使用相同训练数据和压缩 Python 脚本 compress.py,每种策略对应独立配置文件。 1....3.6 剪切后 int8 量化 本示例先将预训练好 MobileNetv1 模型剪掉 50% FLOPS, 让后再对其进行动态 int8 量化训练。

77740

精度无损,体积压缩70%以上,百度PaddleSlim为你模型瘦身

量化 PaddleSlim 为开发者提供在训练过程中对量化进行建模以确定量化参数 Quantization Aware Training 量化模式,提供更高预测精度。...剪切:对预训练好 MobileNetv1 进行剪切 量化:对预训练好 MobileNetv1 进行 int8 量化训练 蒸馏量化组合:先用 ResNet50 对 MobileNetv1 进行蒸馏,再对蒸馏后得到模型进行...剪切量化组合:先用 Uniform 剪切策略对 MobileNetv1 进行剪切,再对剪切后模型进行 int8 量化训练 本示例完整代码链接:https://github.com/PaddlePaddle...本示例中五个压缩策略使用相同训练数据和压缩 Python 脚本 compress.py,每种策略对应独立配置文件。 1....3.6 剪切后 int8 量化 本示例先将预训练好 MobileNetv1 模型剪掉 50% FLOPS, 让后再对其进行动态 int8 量化训练。

73320

【云+社区年度征文】TinyML实践-2:How TinyML Works?

简单说,TFLite与TF最大不同,它只关注推断。 TF-Lite for Microcontroller是TFLitemcu移植版本(子系统),复用TF-Lite框架。...Interpreter TF-Lite使用“解释执行模型”(术语来自TinyML书,有机会展开描述,很有意思实现),与之相对是“模型生成代码”(code generation)。...Quantization为什么量化是必要?想象一个使用ATmega328P微控制器Arduino Uno,它使用8位算法。...从广义上讲,剪枝试图去除对输出预测没有多大用处神经元。这通常与较小神经权重相关联,而较大权重由于推理过程中重要性而保持不变。然后修剪后体系结构上重新训练网络,以微调输出。...该过程用于将相同知识存储较小网络中,提供了一种压缩知识表示方法,从而压缩了神经网络大小,从而可以将其用于更多内存受限设备上。

1.7K52

MutualNet:一种“宽度-输入分辨率”互相学习网络轻量化方法

,产生了多种神经网络轻量化方法,比如设计紧凑高效网络结构、对不重要连接进行剪枝。...,使用Full network预测结果训练它们,损失函数为: 上式中表示KL散度。...2.4 推理 MutualNet可以不同输入图片分辨率-网络宽度配置下进行推理,为了寻找某个特定计算量限制下,输入图片分辨率-网络宽度最优组合,进行如下操作: 从[0.25,1]区间内以0.05...与多尺度数据增强方法不同是,Mutual learning能在同一个迭代中读取不同分辨率输入图片;多尺度数据增强通常使得网络同一个迭代中读取相同分辨率输入图片,不同迭代中读取不同分辨率图片。...不同网络宽度和输入图片分辨率设置下,单独训练MobileNetv1和MobileNetv2。

45520

轻量级神经网络系列——MobileNet V1

Laurent Sifre博士2013年谷歌实习期间,将可分离卷积拓展到了深度(depth),并且在他博士论文Rigid-motion scattering for image classification...与标准卷积网络不一样是,我们将卷积核拆分成为但单通道形式,不改变输入特征图像深度情况下,对每一通道进行卷积操作,这样就得到了和输入特征图通道数一致输出特征图。...深度卷积过程中,我们得到了8×8×3输出特征图,我们用256个1×1×3卷积核对输入特征图进行卷积操作,输出特征图和标准卷积操作一样都是8×8×256了。...假设 输出为一个224×224×3图像,VGG网络某层卷积输入尺寸是112×112×64特征图,卷积核为3×3×128,标准卷积运算量是: 3×3×128×64×112×112=924844032...上图左边是标准卷积层,右边是V1卷积层,虚线处是不相同点。V1卷积层,首先使用3×3深度卷积提取特征,接着是一个BN层,随后是一个ReLU层,之后就会逐点卷积,最后就是BN和ReLU了。

1.4K40

我用飞桨做了一个可回收垃圾材料分类机

我们将Base64图像解码模块和飞桨预测模型内嵌一个基于FlaskPython Web框架中,用于接收热数据并进行实时垃圾图像预测分类。...图 7 数据集样例 为了进行可回收垃圾目标识别,使用图像标注软件Labelimg1.3.3标注每一幅图像中可回收垃圾坐标和类别,生成xml格式标签文件,再转换为coco格式不同背景下可回收垃圾图像...与两阶段检测方法不同,单阶段目标检测并不进行区域推荐,而是直接从特征图回归出目标的边界框和分类概率。SSD 运用了这种单阶段检测思想,并且对其进行改进:不同尺度特征图上检测对应尺度目标。...如下图所示,SSD六个尺度特征图上进行不同层级预测。每个层级由两个3x3卷积分别对目标类别和边界框偏移进行回归。...训练过程中,每完整地训练10个epoch后,将输出当轮参数模型,方便从中间节点重新训练模型。完成训练后,将输出预测模型。利用测试集对训练网络进行评估,输出mAP 63%,实验结果如下。 ?

78010

OCR文字检测与识别系统:融合文字检测、文字识别和方向分类器综合解决方案

随着图像分类技术发展,MobileNetV1、MobileNetV2、MobileNetV3和ShuffleNetV2系列常用作轻量骨干网络。每个系列都有不同模型大小和性能表现。...FPGM裁剪示意图 PP-OCR中,我们使用FPGM对检测模型进行剪枝,最终DBNet模型精度只有轻微下降,但是模型大小减小46%,预测速度加速19%。...不同骨干网络下方向分类器精度对比 2.2.2 数据增强 数据增强指的是对图像变换,送入网络进行训练,它可以提升网络泛化性能。...使用量化策略之后,模型大小减小67.4%、预测速度加速8%、准确率提升1.6%,量化可以减少模型冗余,增强模型表达能力。...3.2.2 U-DML 知识蒸馏策略 对于标准 DML 策略,蒸馏损失函数仅包括最后输出层监督,然而对于 2 个结构完全相同模型来说,对于完全相同输入,它们中间特征输出期望也完全相同,因此最后输出层监督监督上

1.2K40

资源 | 让手机神经网络速度翻倍:Facebook开源高性能内核库QNNPACK

1×1 卷积中,K 是输入通道数量,N 是输出通道数量,M 是图像中像素数量。实用移动优化网络中,K 和 N 不超过 1024,取值范围通常在 32-256 之间。...因此,它目的是删除所有计算非必需内存转换。 ? 量化矩阵-矩阵乘法中,8 位整数乘积通常会被累加至 32 位中间结果中,随后重新量化以产生 8 位输出。...对于每个输出像素,im2col 复制输入图像图像块并将其计算为 2D 矩阵。...此外,如果两次推断运行输入张量存储位置不变,则 indirection buffer 还可使用输入张量行指针进行初始化,然后多次推断运行中重新使用。...MobileNetV1 架构使用深度卷积(depthwise convolution)使模型更适合移动设备方面具备开创性。

1.6K40

TinyML-5:TFLite Quantization背后运行机制

TF-Lite example: Optimize Options [tflite exmaple] 众所周知,使用TFLite转换TF modelQuantization量化技术可以缩小weights...上图代码典型应用场景,使用TFLiteconverter对saved model进行转换,converteroptimizationstf.lite.Optimize有三个可选参数(DEFAULT...在此,即使是梯度也针对量化权重进行计算。通俗说,训练过程每层输出进行量化,让网络习惯精度下降训练,最终达到推理部署时候获得更小精度下降损失。本文着重讲PTQ,以后有机会再展开阐述。...不过压缩和运行转换时候不同策略造成二者不同, Quantized Weight Compression(for size)algo [quantized weight compression for...回到数字行示例,比例因子值确定行上2个刻度之间最小距离,此类刻度数量取决于我们用来表示整数位数(对于8位固定点) ,256或28)。我们可以使用它们范围和精度之间进行权衡。

2.3K91

边缘计算 | 移动设备上部署深度学习模型思路与注意点 ⛵

量化感知训练: 需要使用量化重新训练模型以匹配原始模型准确性。量化网络通常在与原始模型相同数据集上重新训练。为了保留梯度传播精准度,梯度不会被量化。...开箱即用量化不太容易做,因为不同网络部分可能需要不同精度。因此,量化/去量化块通常被插入中间以遍灵活转化与使用。...一个例子是将图像分解为两个低分辨率图像,其中一个承载高频信息,另一个包含低频信息。结合起来,实际我们保留了和原始图像相同信息,但具有更低维度,即更小输入数据,网络也小一些。...很典型一种思路是,多个模型中重复使用来自浅层特征,而是用不同深层结构来应对特定任务。...图像帧之间数据重用有些场景,虽然输入数据可能不完全相同,但可能足够(例如连续视觉模型处理相邻帧),那此时可以部分重复使用数据。

1.2K41

一个方案搞定从模型量化到端侧部署全流程

而且,产出统一格式量化模型,ARM CPU、Intel CPU、Nvidia GPU等预测端都可以进行部署。...Paddle Lite部署量化模型方法和普通模型相同,首先使用OPT工具转换模型,然后加载模型进行预测推理。相比原始模型,量化模型通常在存储空间、推理速度和计算内存等方面都有明显优势。...飞桨模型量化方案中,PaddleSlim可以使用多种量化方法对不同模型进行量化,Paddle Lite全面支持所有量化模型移动端预测推理,具体包括ARM CPU、MTK、RK、寒武纪、比特大陆等硬件平台...虽然不同硬件平台存在精度差异,但是Paddle Lite可以保证绝大多数量化模型精度无损。 相比NCNN、MNN和Mace等预测推理库,飞桨模型量化具有功能强、全流程打通优势。...1 ) 转换量化模型 基于Paddle LitePython库,可以命令行使用OPT工具对量化模型进行转化。

1.5K20

一个方案搞定从模型量化到端侧部署全流程

而且,产出统一格式量化模型,ARM CPU、Intel CPU、Nvidia GPU等预测端都可以进行部署。...Paddle Lite部署量化模型方法和普通模型相同,首先使用OPT工具转换模型,然后加载模型进行预测推理。相比原始模型,量化模型通常在存储空间、推理速度和计算内存等方面都有明显优势。...飞桨模型量化方案中,PaddleSlim可以使用多种量化方法对不同模型进行量化,Paddle Lite全面支持所有量化模型移动端预测推理,具体包括ARM CPU、MTK、RK、寒武纪、比特大陆等硬件平台...虽然不同硬件平台存在精度差异,但是Paddle Lite可以保证绝大多数量化模型精度无损。 相比NCNN、MNN和Mace等预测推理库,飞桨模型量化具有功能强、全流程打通优势。...1 ) 转换量化模型 基于Paddle LitePython库,可以命令行使用OPT工具对量化模型进行转化。

1.7K10

谷歌公布亚毫秒级人脸检测算法 BlazeFace,人脸检测又一突破!

例如,一个实验中我们观察到 MobileNetV1 推理时间需要 4.9 毫秒,而在实际 GPU 计算中花费 3.9 毫秒。...典型非最大抑制方案中,只有一个锚点被选中作为算法输出。这样模型应用于后续视频人脸预测时,预测结果将在不同锚之间波动并且时间序列上检测框上持续抖动(人类易感噪声)。...我们通过连续输入目标轻微偏移图像量化抖动量,并观察模型结果(受偏移量影响)如何受到影响。...实验 我们 66K 图像数据集上训练我们模型。为了评估实验结果,我们使用了由 2K 图像组成地理位置多样数据集。...图 7 中,我们展示了 BlazeFace 输出,即预测边界框和面部 6 个关键点(红色)如何通过一个更复杂的人脸轮廓估计模型来进一步细化,并将其应用于扩展结果。 ?

1.1K40

人人都能看懂AIoT开发

作为人工智能子集,机器学习使用统计学技术赋予计算机学习能力,而无需明确编程。在其最原始方法中,机器学习使用算法来分析数据,然后根据其解读进行预测。...机器学习算法并不遵循静态程序指令,而是利用输入示例训练集来构建模型进行运算,以便做出数据驱动型预测输出表示出来。...模型训练时需要加入辅助训练结构,并且训练过程中为了提高精度,一般使用至少单精度浮点数。通常不同训练工具(也叫框架),会使用不同格式来表达训练出来模型,这样模型还需要进一步加工才能应用。...集成到MCU时,把转换后文件展成C数组定义或者放在SD卡中,并且把TF-Lite编译链接进MCU端固件,就可以使用它了。...注册阶段把256个浮点数据输入系统,而认证阶段则提取系统存储数据与当前图像新生成256个浮点数据进行比对最终得到人脸比对结果。 通过神经网络算法得到特征点示意图如下: ?

1.4K52
领券