腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
多次
使用
已
保存
的
模型
进行
推理
,而
无需
每次
重新
加载
模型
python
、
tensorflow
我
的
目标是
加载
一次
保存
的
模型
,并在不同
的
图像上
多次
使用
它
进行
推理
,以节省
每次
预测之间
的
时间。在我
的
例子中,在
加载
模型
之后,第一个预测就可以了。但是,如果我再次尝试
使用
该
模型
,结果为空。有没有一种方法可以
多次
使用
加载
的
<em
浏览 119
提问于2020-12-01
得票数 2
回答已采纳
1
回答
如何
保存
和
重新
加载
Keras编解码
模型
的
隐藏状态以
进行
推理
python-3.x
、
keras
、
nlp
、
lstm
、
seq2seq
我正在研究一个序列,
使用
在Keras中
使用
LSTM层
的
编码器解码器架构来对文本生成
进行
序列排序。 我
的
代码是Keras seq2seq教程:
的
修改版本。在对
模型
进行
训练之后,我想建立一个
推理
模式,在这种模式下,我可以只
使用
所接受
模型
的
隐藏状态来解码序列,而
无需
每次
对整个
模型
进行
再训练。我正在寻找一种方法将这些隐
浏览 0
提问于2019-08-22
得票数 0
1
回答
局部
保存
精细
模型
huggingface-transformers
我正在尝试理解如何在本地
保存
一个经过精细调整
的
模型
,
而
不是把它推到中心。我怎么能这么做?最初从拥抱脸部
加载
模型
浏览 10
提问于2022-05-04
得票数 2
回答已采纳
2
回答
Tensorflow提供未知数据类型策略
python
、
python-3.x
、
tensorflow
、
keras
、
deep-learning
我正在尝试在Colab中训练一个
模型
,然后将其转移到Kaggle。该
模型
似乎在Colab中作为.h5
模型
工作得很好。问题似乎出在高效
的
net B4和之后
的
Kaggle上。没有关于这方面的文档。我在TPU上训练这个
模型
,并在GPU上
进行
推理
,但即使我在GPU上训练
模型
,这个问题也存在。我
的
错误日志 -------------------------------------------------------------
浏览 5
提问于2020-12-25
得票数 0
回答已采纳
2
回答
如何与tensorflow
保存
的
模型
预测器并行
进行
推理
?
python
、
tensorflow
、
multiprocessing
、
python-multiprocessing
、
ray
Tensorflow版本: 1.14我们当前
的
设置
使用
python多处理来并行地
进行
推理
。(推断是在CPU上完成
的
。)这种方法在
每次
进行
预测时都会<e
浏览 0
提问于2020-06-18
得票数 2
4
回答
从ASP.NET C++服务调用有状态
的
非托管C++类
c#
、
asp.net
、
c++
、
web-services
、
unmanaged
我继承了一个完成了一半
的
应用程序,它似乎
使用
了一种我不确定是否能可靠工作
的
模型
。public static extern string DoStuff( ); 在非托管C++ .dll中,它
使用
单例来
保存
调用之间
的
状态。这使得它只需要初始化一次,然后从磁盘和数据库中
加载
一堆缓慢
的
东西,
而
不是
每次
调用has服务时都
加载
,因为这太慢了。因此,
每次
对非托管.dll<em
浏览 0
提问于2010-12-08
得票数 4
2
回答
在标记中
使用
tensorflow: google.protobuf.message.DecodeError:错误
的
导线类型
python
、
tensorflow
、
keras
、
protocol-buffers
对于我
的
项目,我试图根据存储在saved_model.pb中
的
经过训练
的
模型
进行
推理
。我怀疑这个错误是由于我
的
代码,你可以在这里看到,但更有可能是由于安装问题: from PIL import Imageimport scipy from scipy重要
的
是要注意
的
是,我是在一个树莓派
的
v4 (因此linux在它上运行)上
进行
测试
的
。如果有任
浏览 276
提问于2020-12-04
得票数 0
回答已采纳
1
回答
在PyTorch中
加载
用于
推理
的
迁移学习
模型
的
正确方法是什么?
python
、
python-3.x
、
pytorch
我正在
使用
基于Resnet152
的
迁移学习来训练
模型
。基于PyTorch教程,我在
保存
训练过
的
模型
并
加载
它以
进行
推理
方面没有问题。但是,
加载
模型
所需
的
时间很慢。我不知道我做得是否正确,下面是我
的
代码: 要将训练好
的
模型
保存
为状态字典,请执行以下操作: torch.save(model.state_dict(),
浏览 17
提问于2019-05-26
得票数 6
2
回答
在不创建端点
的
情况下
使用
AWS Sagemaker实现
模型
性能
pytorch
、
amazon-sagemaker
我一直在
使用
Amazon Sagemaker Notebook为NLP任务构建pytorch
模型
。我知道您可以
使用
Sagemaker
进行
训练、部署、超参数调优和
模型
监控。但是,看起来您必须创建一个
推理
端点,以便监视
模型
的
推理
性能。我已经设置了一个EC2实例来在我们
的
模型
上执行推断任务,这个
模型
目前在一个开发箱中,
而
不是
使用
端点来创建 是否可以<e
浏览 5
提问于2020-09-19
得票数 1
回答已采纳
1
回答
如何减小keras
保存
的
模型
的
大小?
python
、
tensorflow2.0
、
tensorflow-hub
然后,我基于tf-hub或keras.applications (我
使用
相同
的
卷积核心)
的
预训练
模型
构建
模型
,在model.save()或tf.saved_model.save之后,结果
模型
文件
的
大小约为经过训练后,它
的
模型
大小增加到30Mb! 如果我在训练后
保存
模型
,再次
重新
创建
模型
,并从训练后
的
模型
加载
权重
浏览 39
提问于2019-10-21
得票数 0
1
回答
在web应用程序中为特定于用户
的
大型
模型
服务
的
最佳实践?
python
、
training
、
generative-models
、
inference
、
consumerweb
首先,你可以在下面看到任何幼稚
的
说法,我是这个领域
的
新手。 集成大型机器学习/深度学习
模型
微调
的
web应用程序如何处理这些
模型
的
存储和检索以
进行
推理
?我试图实现一个网络应用程序,让用户微调一个稳定
的
扩散
模型
,
使用
他们自己
的
图像与梦想间。由于微调
模型
相当大,达到了几千兆字节。在对
模型
进行
训练和
保存
后,应
浏览 0
提问于2023-02-03
得票数 0
回答已采纳
1
回答
tf.import_graph_def和tf.train.import_meta_graph之间
的
区别是什么
tensorflow
在
模型
文件夹中训练时,会自动
保存
元图形文件。如果我想
加载
模型
并
进行
推理
,
而
不是从头开始构建图形,
使用
tf.train.import_meta_grah可以吗?
浏览 2
提问于2016-09-30
得票数 9
1
回答
保存
prediction_generator会导致tensorflow和python
python
、
tensorflow
、
deep-learning
、
tensorflow2.0
、
prediction
假设,我们在TensorFlow流中拟合了一个
模型
train_generator, verbose=1,我想知道是否有可能
保存
预测并将其从磁盘
加载
,以便调试后续代码,而
无需
在
每次</e
浏览 4
提问于2021-05-02
得票数 0
回答已采纳
1
回答
如何解决
加载
模型
以获得新预测
的
问题?
python
、
tensorflow
、
keras
、
model
、
save
我训练了一个
模型
并将它
保存
为import os model.save(''),我想
使用
我
的
模型
对新
的
测试集
进行
预测,所以我用model = tf.keras.models.load_model('')
加载
它它向我展示了在
加载
Keras
模型
时检测到Tf2.5之前
保存
的
这个waring (WARNING:tensorflow:SavedModel
浏览 2
提问于2021-08-26
得票数 3
1
回答
有没有办法卸载
已
加载
的
模型
?
autodesk-forge
、
autodesk-viewer
我想
使用
单个查看器来
加载
/卸载
模型
,
而
不是拆卸查看器并创建新
的
查看器实例。
推理
:我
加载
了多个
模型
,其中一个
模型
太大,有问题,会减慢渲染速度,我在想,是否可以只卸载有问题
的
模型
,
而
不是
重新
加载
除有问题
的
模型
之外
的
所有
模型
。
浏览 5
提问于2018-08-06
得票数 1
回答已采纳
2
回答
每次
未做任何更改时,Simulink
模型
都会
重新
构建
matlab
、
simulink
自从我开始
使用
这个Simulink
模型
以来,我就一直有这个问题。无论我怎么尝试,Simulink都会在我
每次
运行它时
重新
构建
模型
。Simulink.BlockDiagram.getChecksum(<model name>); 1 1如果校验和相同,为什么Simulink要
重新
构建
模型
我确实创建了另一个
模型
,其中包含一些简单
的
逻辑,在编译之后
浏览 1
提问于2014-03-22
得票数 2
1
回答
Tensorflow 2x:在tensorflow.keras.save_model中,参数include_optimizer到底会影响什么
python
、
keras
、
deep-learning
、
tensorflow2.0
、
tensorflow-serving
我一直在浏览tensorflow.keras.save_model()应用程序接口
的
文档,我遇到了参数include_optimizer,我想知道不包括优化器有什么好处,或者如果优化器不与
模型
一起
保存
会出现什么问题为了给我
的
特定用例提供更多
的
上下文,我想
保存
一个
模型
,然后将生成
的
.pb文件与Tensorflow一起
使用
。我是否需要
保存
优化器状态,
而
不是
保存
它会减少结果文件
的
浏览 51
提问于2021-04-30
得票数 1
回答已采纳
1
回答
mvc中
的
重载
模型
asp.net-mvc
我想对mvc操作中
的
重新
加载
模型
进行
一些限定。例如:public class PresentationItemModel() public int Id { get; set; } } ...
浏览 3
提问于2013-10-30
得票数 0
回答已采纳
1
回答
keras
模型
子类示例
tensorflow
、
keras
从Keras2.2.0开始,发布了
模型
定义
的
第三个API :
模型
子类。 但是,在子类
模型
中,
模型
的
拓扑被定义为Python代码(
而
不是层
的
静态图)。这意味着不能检查或序列化
模型
的
拓扑结构。
保存
经过训练
的
模型
进行
推理
的
唯一选择是
使用
model.save_weights方法。然而
浏览 1
提问于2018-10-15
得票数 12
1
回答
在工作人员上
加载
本地(不可序列化)对象
python
、
google-cloud-dataflow
、
apache-beam
我正在尝试
使用
Dataflow与Tensorflow一起
进行
预测。这些预测发生在工人身上,我目前正在通过startup_bundle()
加载
模型
。我当前
的
问题是,即使我处理1000个元素,startup_bundle()函数也会被
多次
调用(至少10次),
而
不是像我所希望
的
那样
每次
工作一次。这大大降低了管道
的
速度,因为
模型
需要
加载
很
多次
,
每次
需要3
浏览 0
提问于2017-08-17
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?
两行代码开启 LoRA 微调&LLM 情感实体抽取实践
ChatGPT模型参数≠1750亿,有人用反证法进行了证明
腾讯深度学习编译器BlazerML项目技术分享
【行业资讯】Paddle.js 1.0 发布,浏览器中的深度学习框架
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券