首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >如何转换tf2模型以便在tflite解释器上运行

如何转换tf2模型以便在tflite解释器上运行
EN

Stack Overflow用户
提问于 2021-01-13 18:07:52
回答 1查看 546关注 0票数 1

背景:我正在尝试从官方的tf动物园转换SSD MobileNet V2 FPNLite 320x320 (例如)的tf2模型。模型最终应该运行在raspberry pi上,所以我希望它能在tflite解释器上运行(没有完全的tf)。这些文档意味着支持ssd模型转换。

发生了什么:过程在这个colab笔记本中有详细的描述。由于错误,它失败了:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ConverterError: <unknown>:0: error: loc(callsite(callsite("Postprocessor/BatchMultiClassNonMaxSuppression/MultiClassNonMaxSuppression/SortByField_1/Size@__inference___call___23519" at "StatefulPartitionedCall@__inference_signature_wrapper_25508") at "StatefulPartitionedCall")): 'tf.Size' op is neither a custom op nor a flex op
<unknown>:0: note: loc("StatefulPartitionedCall"): called from
<unknown>:0: error: failed while converting: 'main': Ops that can be supported by the flex runtime (enabled via setting the -emit-select-tf-ops flag):
    tf.Size {device = ""}

如果我添加标志tf.lite.OpsSet.SELECT_TF_OPS,它可以工作,但不会在rpi上运行,因为它没有操作系统。

这能办到吗?有人成功了吗?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-01-14 09:32:38

由于TF.Size在TFLite上本机不受支持,所以您可以使用TF选择模式,对于缺少的op,TFLite将在转换过程中使用您尝试的"SELECT_TF_OPS“启用。当您运行推断时,您将需要使用具有Select链接的解释器。请参阅运行推理时的指南

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/65712409

复制
相关文章
将Pytorch模型移植到C++详细教程(附代码演练)
在本文中,我们将看到如何将Pytorch模型移植到C++中。Pytorch通常用于研究和制作新模型以及系统的原型。该框架很灵活,因此易于使用。主要的问题是我们如何将Pytorch模型移植到更适合的格式C++中,以便在生产中使用。
磐创AI
2023/08/29
2.1K0
将Pytorch模型移植到C++详细教程(附代码演练)
如何在Ubuntu 16.04上设置Jupyter Notebook以运行IPython
IPython是Python的交互式命令行界面。Jupyter Notebook提供了多种语言的交互式Web界面,包括IPython。
吴凌云
2018/10/22
4K0
手把手教程:如何从零开始训练 TF 模型并在安卓系统上运行
本教程介绍如何使用 tf.Keras 时序 API 从头开始训练模型,将 tf.Keras 模型转换为 tflite 格式,并在 Android 上运行该模型。我将以 MNIST 数据为例介绍图像分类,并分享一些你可能会面临的常见问题。本教程着重于端到端的体验,我不会深入探讨各种 tf.Keras API 或 Android 开发。
AI研习社
2019/10/22
2.3K0
手把手教程:如何从零开始训练 TF 模型并在安卓系统上运行
使用 TFLite 在移动设备上优化与部署风格转化模型
文 / Khanh LeViet 和 Luiz Gustavo Martins,技术推广工程师
CV君
2020/05/27
1.7K0
使用 TFLite 在移动设备上优化与部署风格转化模型
TensorFlow 2.0 的新增功能:第三、四部分
如果您使用过 TensorFlow 1.x,则本部分将重点介绍迁移到 TensorFlow 2.0 所需的总体概念更改。 它还将教您使用 TensorFlow 可以进行的各种 AIY 项目。 最后,本节向您展示如何将 TensorFlow Lite 与跨多个平台的低功耗设备一起使用。
ApacheCN_飞龙
2023/04/26
2.4K0
使用YOLOv8进行工业视觉缺陷检测,基于Aidlux完成本地终端部署
工业视觉缺陷检测系统是一种利用计算机视觉技术,通过分析生产过程中的图像和视频数据,来检测工业产品是否存在缺陷或质量问题的系统。有幸参与到Aidlux夏令营活动中,跟着东哥做了医疗注射器缺陷检测系统项目,在这个过程中我收获到了很多之前没有接触到的算法和实践。本项目旨在开发一种高效的工业视觉缺陷检测系统,利用YOLOv8模型进行目标检测,并基于AidLux平台完成本地终端部署推理,以满足工业生产中对产品质量控制的需求。
远方上
2023/09/11
9580
使用YOLOv8进行工业视觉缺陷检测,基于Aidlux完成本地终端部署
在Windows上以服务方式运行 MSOPenTech/Redis
ServiceStack.Redis 使用教程里提到Redis最好还是部署到Linux下去,Windows只是用来做开发环境,现在这个命题发生改变了,在Windows上也可以部署生产环境的Redis,这都要感谢微软的开放,把Redis在Windows上的环境给我们搞定了,最新的版本已经支持64位了。那么Redis在32位上的存储能力受限于可用的地址空间,也就是3GB。 要在Windows上运行64位Redis ,可以从https://github.com/MSOpenTech/redis 获取一份Redis
张善友
2018/01/29
1.4K0
在Windows上以服务方式运行 MSOPenTech/Redis
tf.lite
它允许您使用一组TensorFlow操作并注释构造,以便toco知道如何将其转换为tflite。这在张量流图中嵌入了一个伪函数。这允许在较低级别的TensorFlow实现中嵌入高级API使用信息,以便以后可以替换其他实现。本质上,这个伪op中的任何“输入”都被输入到一个标识中,并且属性被添加到该输入中,然后由构成伪op的组成ops使用。
狼啸风云
2019/09/06
5.3K0
使用NVIDIA TAO工具包优化Arm Ethos-U NPUs的AI模型
本文翻译自:《Optimizing AI models for Arm Ethos-U NPUs using the NVIDIA TAO Toolkit》
GPUS Lady
2023/10/25
3300
使用NVIDIA TAO工具包优化Arm Ethos-U NPUs的AI模型
pycharm指定解释器_pycharm如何设置解释器
弹出下图界面,选择左边红色圈,Project Python -> Project Interpreter
全栈程序员站长
2022/09/25
1.2K0
pycharm指定解释器_pycharm如何设置解释器
【技术创作101训练营】TensorFlow Lite的 GPU 委托(Delegate)加速模型推理
不过从我对文档的理解来看,感觉更像是添加的一种硬件后端(代理我想应该只是调用调用层面,不是底层实现,另外在Hexagon DSP的委托代理部分,文档坦言说Hexagon DSP的代理就是为了补充NNAPI,特别是针对那些NNAPI不可用DSP加速的、老旧驱动的设备,毕竟这些老旧设备也没有NNAPI这个东西,但有DSP硬件),交给模型的子图来去执行。比方原始模型的CPU执行Graph如上图。交给GPU的委托代理后,原Graph变为下面这样:
开心的派大星
2020/09/23
5.4K1
Android上的TensorFlow Lite,了解一下?
TensorFlow Lite是TensorFlow针对移动和嵌入式设备的轻量级解决方案。它可以在移动设备上高效运行机器学习模型,因此您可以利用这些模型进行分类、回归或其他功能,而无需和服务器交互。
云水木石
2019/07/02
1.8K0
Android上的TensorFlow Lite,了解一下?
模型解释器——LIME算法介绍
导读:随着深度学习算法应用越来越广泛,大家不再满足于只得到模型的预测结果,而是希望更好的了解结果产生的原因。构建能让用户理解并信任的模型越来越重要。本文将介绍一种作为复杂模型事后解释器的算法——LIME,并以乳腺癌诊断为例,对XGboost模型结果进行解释。
三猫
2023/08/31
1.1K0
模型解释器——LIME算法介绍
谷歌并未放弃TensorFlow,将于2023年发布新版,明确四大支柱
2015 年,谷歌大脑开放了一个名为「TensorFlow」的研究项目,这款产品迅速流行起来,成为人工智能业界的主流深度学习框架,塑造了现代机器学习的生态系统。从那时起,成千上万的开源贡献者以及众多的开发人员、社区组织者、研究人员和教育工作者等都投入到这一开源软件库上。
机器之心
2022/12/15
3610
谷歌并未放弃TensorFlow,将于2023年发布新版,明确四大支柱
没有硬件,也可以运行与测试 TFLite 应用
提到人工智能和机器学习(Marchine Learning,ML),你的脑海里是否立即会浮现计算中心、高端 GPU、成百上千的 TPU 等等。实际上,随着嵌入式设备、移动终端以及近年来物联网(Internet of Things,IoT)的发展,人工智能离我们越来越近。手机、智能音箱、电话手表,甚至控制开关,都配备有一定的人工智能。特别是物联网和智能家居的快速发展,机器学习在微型低功耗设备上应用得越来越广泛。
云水木石
2020/06/24
1.4K0
如何将自己开发的模型转换为TensorFlow Lite可用模型
对于开发者来说,在移动设备上运行预先训练好的模型的能力意味着向边界计算(edge computing)迈进了一大步。[译注:所谓的边界计算,从字面意思理解,就是与现实世界的边界。数据中心是网络的中心,PC、手机、监控照相机处在边界。]数据能够直接在用户手机上处理,私人数据仍然掌握在他们手中。没有蜂窝网络的延迟,应用程序可以运行得更顺畅,并且可大幅减少公司的云服务账单。快速响应式应用现在可以运行复杂的机器学习模型,这种技术转变将赋予产品工程师跳出条条框框思考的力量,迎来应用程序开发的新潮流。
云水木石
2019/07/01
3.1K0
如何将自己开发的模型转换为TensorFlow Lite可用模型
TinyML-5:TFLite Quantization背后的运行机制
上一篇文章描述了为什么quantization 量化的int8足够运行推理,以及Quantization量化对TinyML的重要性,但是没有深入说明Quantization的实现机制,本篇博文打算从TFlite的案例代码切入,从代码的Optimize选项展开讲TFLite背后Quantization的PTQ,QAT技术等。
flavorfan
2021/01/17
2.5K0
TinyML-5:TFLite Quantization背后的运行机制
如何让软件以 System 权限运行
本文只是告诉大家调试 System 运行软件时可以如何快速让一个应用以 System 权限运行。使用 PsExec 可以让软件以 System 账户运行
林德熙
2020/02/18
2.7K0
高效终端设备视觉系统开发与优化
大家好,我是来自Google Research的高级软件工程师汪启扉,首先感谢LiveVideoStack邀请我在此处演讲。今天,我的主题是高效终端设备机器学习的最新进展 。
LiveVideoStack
2021/09/01
6660
高效终端设备视觉系统开发与优化
【云+社区年度征文】TinyML实践-2:How TinyML Works?
对于Tensorflow最大需求是能够在桌面系统中训练并运行模型,这种需求影响了很多设计决策,例如为了更低的延迟和更多的功能而增加可执行文件的大小。云端服务器上,RAM以GB为衡量单位,存储空间以TB为单位,几百兆字节的二进制文件通常不是问题。
flavorfan
2020/12/07
1.8K0
【云+社区年度征文】TinyML实践-2:How TinyML Works?

相似问题

由于内部错误,无法在解释器上运行tflite模型

159

无法在android studio中的解释器上运行tflite模型。

21

TFLite解释器在Android上加载量化模型失败

123

如何在TFLite上运行RaspberryPi模型

11

TFLite模型转换显示警告,并在解释器崩溃时使用转换的模型

129
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文