腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何
缩小
Tflite
模型
的
大小
或
通过
编程
下载
和
设置
?
、
、
、
、
好
的
,所以在我
的
应用程序中,我试图使用人脸网络
模型
来实现人脸识别,该
模型
被转换为平均约为93MB
的
tflite
,但是这个
模型
最终增加了我
的
apk
的
大小
。所以我正在尝试寻找替代方法来解决这个问题。首先,我能想到
的
是以某种方式压缩它,然后在安装应用程序时解压缩 另一种方法是我应该将
模型
上传到服务器,并在
下载
后将其加载到我
的
应用程序中。然而,我似乎不知
浏览 21
提问于2019-11-26
得票数 6
回答已采纳
1
回答
Tensorflow:
tflite
文件是否包含有关
模型
架构
的
数据?(图?)
、
tflite
文件是否包含有关
模型
架构
的
数据?这张图显示了权重、特征
和
偏差之间
的
操作,哪种层(线性
或
卷积等),层
的
大小
,以及层之间有哪些激活函数?例如,使用graphviz获得
的
图形包含所有信息,或者
tflite
文件只包含训练后
模型
的
最终权重? 我正在从事一个具有图像风格转移
的
项目。我想在一个现有的项目上做一些研究,看看哪些参数效果更好。我正在查看
的</em
浏览 22
提问于2021-06-05
得票数 0
回答已采纳
2
回答
html发送是压缩
的
和
/
或
缩小
的
吗?
、
、
、
在某些情况下,我想要加载
的
html非常大。我想知道浏览器是否已经简化了幕后
的
过程,或者在从jQuery调用.load()之前是否应该
缩小
和
/
或
压缩html?如果是,是哪一个?还是两者都有?在这种情况下,有没有一种标准
的
方法来执行
缩小
和
/
或
压缩?这有什么意义吗: 我要从服务器检索
的
数据是静态
的
。假设我有苹果、橙子、金橘
和
木瓜
的
数据,并且这
浏览 3
提问于2013-06-19
得票数 0
3
回答
将TensorFlow Keras
模型
转换为Android .
tflite
模型
、
、
、
我正在使用TensorFlow
和
Keras做一个图像识别项目,我想要实现到我
的
安卓项目。我对坦索弗洛很陌生..。 现在,下面的Python代码运行良好。据我理解,我需要创建一个具有所有提取
的
图像特性
的
.h5文件
和
一个包含
模型
的
.
tflite
文件。) 但是,我
如何
才能获得我<
浏览 15
提问于2022-04-22
得票数 0
回答已采纳
1
回答
多个签名中
的
TFLite
输入/输出量化
、
、
TFLite
模型
转换允许自动量化
或
反量化
模型
的
输入
或
输出。您可以
通过
像这样适当地
设置
inference_input_type
和
inference_output_type来做到这一点。converter.inference_input_type = tf.uint8 converter.inference_output_type = tf.uint8 但是,根据TensorFlow 2.7
TFLite
这些可以从已保存
浏览 51
提问于2021-09-24
得票数 0
1
回答
如何
使用最新
的
MobileNet (v3)进行目标检测?
、
、
、
、
我一直在尝试使用最新
的
MobileNet MobileNet_v3来运行对象检测。你可以从这里找到谷歌预先训练好
的
模型
,比如我正在尝试使用
的
"ssd_mobilenet_v3_large_coco“:https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/detection_model_zoo.md 我不知道这
浏览 66
提问于2019-12-19
得票数 3
1
回答
如何
在android上将自定义
tflite
模型
添加到mediapipe中?
、
、
、
、
我
如何
将我
的
tflite
模型
添加到android上
的
mediapipe中。在我
的
模型
中,我使用mediapipe手动跟踪获取点,并将这些点传递给我
的
模型
来预测结果。我用移动相机捕捉图像并预测结果。请帮助我,
如何
将我
的
tflite
模型
导入到Manifest.java
的
手跟踪。 我不知道该怎么添加我
的
模型
。我该在哪
浏览 11
提问于2022-11-14
得票数 0
1
回答
如何
看待两种
Tflite
模型
的
差异
、
、
、
、
我有两个Tensorflow Lite
模型
(它们是Yolo V2微型
模型
): Model A)从互联网上
下载
,检测
和
分类有80个类
的
对象。.
tflite
文件
的
重量为44,9mb。( Model B)由我自己使用Darknet训练,用52个类对对象进行检测
和
分类。.
tflite
文件重20,8mb。该
模型
使用暗流( Darkflow. )将其转换为。然而,无论是在移动电话上还是在计算机上,B
模型
浏览 6
提问于2020-03-15
得票数 1
回答已采纳
1
回答
如何
以
编程
方式将UIImageView缩放为固定宽度
和
灵活高度?
、
、
我正在尝试创建一个表格视图单元格,它显示一个图像,从web上
下载
,并
缩小
到适合设备
的
宽度。部分问题是,我需要弄清楚
如何
在
下载
图像后调整单元格
大小
。换句话说,我将在图像加载时
设置
一个默认高度,然后一旦图像加载完成,我希望调整单元格
的
高度。我知道,一旦我指定了固定
的
宽度
和
高度,就可以将图像视图
的
内容模式
设置
为“宽高适中”,但我不确定
如何
通过
编
浏览 1
提问于2015-12-18
得票数 0
4
回答
如何
查看.
tflite
文件中
的
权重?
、
我得到了MobileNet
的
预先训练
的
.pb文件,发现它没有被量化,而完全量化
的
模型
应该被转换成.
tflite
格式。由于我不熟悉移动应用开发工具,
如何
从.
tflite
文件中获取MobileNet
的
完全量化
的
权重。更准确地说,
如何
提取量化参数并查看其数值?
浏览 1
提问于2018-08-31
得票数 10
3
回答
非视网膜图像有多重要?
、
、
、
我正在为我
的
一个应用程序发布一个新
的
更新,我失望地看到它刚刚超过20 my
的
估计
大小
(20 my是不能再
通过
单元数据
下载
的
)。我
的
应用程序包含了很多图像,所以如果我没有所有的非视网膜图像,我可以大大
缩小
尺寸。我知道有一些非视网膜设备将运行我
的
应用程序。以下是我
的
问题: 如果我有一个带有@2x后缀
的
图像,但没有它就没有非视网膜图像,那么非视网膜设备将
如何
反应。如
浏览 2
提问于2013-10-14
得票数 0
回答已采纳
1
回答
减少超大型型号
的
查看器
下载
带宽
我们希望使用Autodesk Forge
模型
查看器来显示一个非常大
的
建筑
模型
。在大多数用例中,只需要在浏览器中显示
模型
的
一部分(由查看器将注意到
的
边界体素定义)。不可能让每个用户等待将整个
模型
下载
到查看器,因为需要
的
带宽数量
和
等待整个
模型
加载
的
延迟。 我知道,我们可以
通过
过滤发布
的
元素、减少细节/纹理级别
或
将
模
浏览 5
提问于2016-11-29
得票数 0
3
回答
减少
tflite
_max_detections变量在
TFLite
中有什么积极
的
作用吗?
、
、
目前,我正在使用
TFLite
模型
制造者来训练我自己
的
对象检测
TFLite
模型
。有一个变量您可以
设置
为'
tflite
_max_detections',默认
设置
为25。有没有人知道降低这个值对
模型
性能有什么影响,或者它有什么积极
的
副作用,我应该知道吗?对于我
的
用例,如果我将它
设置
为1,这就是我要问
的
原因。
浏览 0
提问于2022-12-04
得票数 0
回答已采纳
1
回答
如何
在ONNX
模型
中找到量化参数,从而将已经量化
的
tflite
模型
转换为ONNX?
、
、
、
我想要做
的
是将量化
的
tflite
转换为ONNX,并使用tf2onnx直接使用ORT运行它。我试图转换
的
网络是YOLOv5,使用我自己
的
dataset + COCO进行预培训,
模型
已经成功转换。我确信这一点,因为我只是尝试加载ONNX
模型
(
通过
PRT)
和
tflite
模型
,从
tflite
解释器
的
输入
和
输出细节中保存量化参数,使用这些量化参数实际运行O
浏览 20
提问于2022-10-28
得票数 0
回答已采纳
1
回答
如何
只在CPU上运行
tflite
、
我有一个
tflite
模型
,运行在珊瑚USB,但我也运行在CPU (作为
通过
一些测试时,珊瑚USB是不可用
的
)。class CoralObjectDetector(object): 从
下
浏览 2
提问于2021-02-22
得票数 1
回答已采纳
1
回答
tf2固态硬盘检测
模型
的
后处理
、
、
、
、
我需要在ios上使用tensorflow
的
检测
模型
。中提供
的
tflite
模型
文件是uint8格式
的
,这在CoreML中不能很好地工作,所以我决定
下载
一个完整
的
模型
并自己将其转换为
tflite
。TF zoo中
的
所有SSD
模型
都包含非最大抑制算法,由于NMS不能很好地与
tflite
一起工作,为了创建没有NMS
的
tflite
模
浏览 4
提问于2021-06-07
得票数 1
1
回答
如何
构建和运行TensorFlow Lite iOS示例?
、
如何
构建和运行TensorFlow Lite iOS示例? ()
浏览 3
提问于2018-08-26
得票数 4
1
回答
生成
的
图像是不完整
的
-不能用字节复制到TensorFlowLite张量(input_1)
、
、
、
我正在尝试加载一个
tflite
模型
并在图像上运行它。 我不知道
如何
处理输入
和
输出张量
大小
。现在,我正在使用输入图像
大小
初始化,输出图像
大小
将是input * 4。在什么时候,我必须“添加”1 * 64 * 64 * 3维度,因为我需要操作每个输入图像
大小
?(imageTensorBuffer.buffer, processedOut
浏览 42
提问于2022-03-11
得票数 0
回答已采纳
1
回答
tflite
SSD-MobileNet_V2不能
设置
张量:尺寸不匹配。输入0
的
维数为320,但期望为1
我试着用
tflite
作为目标检测
的
初学者做一些实验。我从Tensorflow网站
下载
了
tflite
模式
的
示例
模型
ssd_mobilenet_v2_fpn_100/fpn 32 解释器=
tflite
.Interpreter(
模型
路径(self,tensor_index,value) 695 ValueError:如果解释器不能
设置
张量。normalized_input_image
浏览 8
提问于2022-06-16
得票数 0
回答已采纳
1
回答
== 1中将SVG
下载
为PNG
、
、
、
、
为此,我将SVG写入画布,并将画布作为PNG
下载
。 在具有视网膜显示屏
和
devicePixelRatio !== 1
的
设备上执行此操作时,会导致图像模糊。当渲染到屏幕上时,这很容易
通过
属性放大画布,然后
通过
CSS
缩小
画布来解决。canvas.width = width * scale; canvas.style.width = width; 然而,我想
下载
的
画布作为一个正确
的
分辨率
和
大小
的<
浏览 21
提问于2019-03-19
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券