腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(829)
视频
沙龙
1
回答
ValueError
:
未找到
SavedModel
捆绑
包
!
在
尝试
将
TF2.0
模型
部署
到
SageMaker
时
、
、
、
我正在
尝试
将
TF2.0model
部署
到
SageMaker
。到目前为止,我成功地训练了
模型
并将其保存到S3存储桶中,但是当我调用.deploy()方法
时
,我从cloud Watch得到以下错误
ValueError
: no
SavedModel
bundles=
sagemaker
_session) predictor = model.deploy(initial_instance_count=1, instance_
浏览 15
提问于2020-01-24
得票数 2
回答已采纳
1
回答
AWS
SageMaker
-
部署
TF集线器
模型
-“没有找到
SavedModel
包
”
、
、
、
上下文资源
部署
模型
-
浏览 15
提问于2022-11-08
得票数 0
回答已采纳
2
回答
Keras预测和
Sagemaker
预测是不同的
、
、
、
、
我正在
尝试
使用amazon
sagemaker
部署
tensorflow keras
模型
。过程成功完成,但是当直接使用keras进行预测和调用
sagemaker
端点进行预测时,我得到了不同的预测结果。我
在
将
模型
部署
到
sagemaker
时
使用了步骤。 # predict using amaz
浏览 1
提问于2021-07-31
得票数 1
1
回答
‘
未找到
SavedModel
捆绑
包
!’
在
亚马逊网络服务
SageMaker
上
部署
tensorflow_hub
模型
、
、
、
我
尝试
将
通用句子编码器
模型
部署
到
aws
Sagemaker
端点,并得到错误raise
ValueError
('no
SavedModel
bundles found!')我已经展示了下面的代码,我有一种感觉,我的路径之一是不正确的import tensorflow_hub as hubfrom
sagemaker
import
浏览 15
提问于2019-07-24
得票数 4
回答已采纳
1
回答
服务于亚马逊
SageMaker
的Tensorflow
、
、
、
、
我面临着
在
AWS
SageMaker
上服务tensorflow
模型
的问题。我
在
SageMaker
环境之外训练了
模型
,现在我有了一个
savedmodel
.pb文件,我需要将它
部署
到
SageMaker
端点上。因此,我简单地压缩了
模型
文件并将其上传到一个S3桶中。现在,
在
尝试
创建端点
时
,我
在
Cloudwatch日志中得到以下错误:
浏览 0
提问于2019-02-11
得票数 2
1
回答
Sagemaker
Tensorflow 2.0端点
、
、
我有一个tensorflow 2.0
模型
,我想
部署
到
AWS
sagemaker
端点。我已经
将
模型
移到了S3存储桶中,并执行了以下代码,但由于没有
TF2.0
图像,因此出现了下面的错误。如果我
尝试
使用不同的版本(例如1.4、1.8)进行
部署
,我会收到ping超时错误。失败。from
sagemaker
.tensorf
浏览 16
提问于2019-11-19
得票数 0
回答已采纳
1
回答
tensorflow对象检测预训练
模型
SageMaker
部署
我
尝试
使用以下指令
将
EfficientDet
模型
从tf2对象检测api
部署
到
sagemaker
:
ValueError
: no
SavedModel
bundles found!
浏览 12
提问于2022-05-28
得票数 0
2
回答
安卓:使用置信度
将
Tensorflow 2.0
SavedModel
问题转换为TFLite问题
、
、
、
你好,我
在
TFHub MobileNet模块(
SavedModel
TF2.0
)上使用迁移学习技术后,
将
一个
SavedModel
文件转换为TFLite文件,使用了这个源代码,并
尝试
在
Tensorflow通常,准确率应该在0.000
到
1.000的范围内。但是使用我转换后的TFLite
模型
,精度范围从-400
到
500.00++变化很大 仅供参考,我已经修补了IMAGE_MEAN和IMAGE_STD的值(255f,0f)和
浏览 29
提问于2020-05-06
得票数 1
1
回答
AWS
SageMaker
-如何加载经过训练的滑雪板
模型
以用于推理?
、
、
、
我正在
尝试
将
一个经过学习训练的
模型
部署
到
端点,并将其作为预测的API。我想要使用的只是使用joblib序列化的
部署
和服务器
模型
,仅此而已。我读过的每一个博客和
sagemaker
文档都显示,sklearn
模型
必须经过关于
sagemaker
的培训,才能
部署
到
sagemaker
中。
在
阅读
SageMaker
文档
时
,我了
浏览 5
提问于2020-12-06
得票数 3
回答已采纳
1
回答
面向实时推理的对象检测
模型
、
、
我
在
定制数据集上训练了OD
模型
。我想将
模型
部署
为API。该
模型
将用于实时推理,我计划在一个API市场上赚钱,比如AWS,Rakuten的快速API等等。我担心的是,如果OD
模型
是作为API提供的,
在
视频流(监视摄像头馈送)上执行实时预测会带来网络延迟,从而使应用程序变得更慢。是否有其他替代方案来解决延迟问题?例如,如果我打包要在客户端系统上执行的代码和工件,则可以消除网络延迟,但有可能暴露
模型
、代码等。因此API似乎是我的用例的理想解决方案。 执行这种
浏览 19
提问于2021-12-06
得票数 0
1
回答
在
R环境中
部署
Amazon
sagemaker
生成的XGBoost
模型
、
、
、
我正在
尝试
在
R环境中
部署
一个使用Amazon
sagemaker
训练的XGBoost
模型
。
sagemaker
生成的
模型
存储为Python pickle对象。使用R中的{reticulate}
包
,我可以
将
模型
导入R中。然而,与
在
相同的测试数据集上直接在Amazon
sagemaker
上使用
模型
相比,
在
R中本地使用
模型
会给出非常不同
浏览 18
提问于2019-01-17
得票数 0
1
回答
将
预先培训的Keras加载到
Sagemaker
局部分类工作,但
sagemaker
分类更改
、
、
、
、
我有一个预先训练的角膜
模型
(model.h5),这是一个用于图像分类的CNN。我的目标是
将
模型
部署
在
sagemaker
上,并使用lambda函数与
sagemaker
端点进行接口并进行预测。
sagemaker
上的端点
时
,会得到不同的结果。下面是
将
模型
部署
为端点的代码: import tensorfl
浏览 1
提问于2021-05-12
得票数 0
回答已采纳
2
回答
如何使用
sagemaker
部署
预先训练好的
模型
?
、
我有一个预先训练的
模型
,
将
文本从英语翻译成马拉松语。你可以在这里找到它。我正在寻找一种方法来
部署
它,以便用户可以将其作为API使用
部署
模型
的指导原则可以在这里找到...https://gitlab.com/shantanuo/dlnotebooks/blob/master/
sagemaker
/01-Image-classification-transfer-learning-cifar10.ipynb 我想
浏览 99
提问于2019-03-03
得票数 3
1
回答
将
tensorflow
模型
部署
在
sagemaker
异步端点上,并包含一个inference.py脚本
、
我正在
尝试
将
tensorflow
模型
部署
到
sagemaker
上的异步端点。我以前使用以下代码将相同的
模型
部署
到
实时端点:使用source_dir参数;我能够
在
我的
模型
中
浏览 12
提问于2022-09-03
得票数 0
回答已采纳
1
回答
向现有Tensorflow
模型
添加{serve}元图
、
、
情况: 我已经创建了几个
模型
,每个
模型
都经过了几天的训练,我们已经准备好从本地测试转移到服务环境。gfile.FastGFile(graph_file_name, 'wb') as f: f.write(output_graph_def.SerializeToString()) 现在,当
尝试
部署
到
服务环境(
Sagemaker
,使用正确的目录结构和文件命名约定)
时
,系统返回 2019-06-04 22:38:53.794056: I e
浏览 37
提问于2019-06-06
得票数 2
回答已采纳
2
回答
如何
将
经过再培训的
Sagemaker
模型
部署
到
端点?
、
、
使用
sagemaker
.estimator.Estimator,我想在再培训后重新创建一个
模型
(用新数据调用fit )。ValidationException) Cannot create already existing endpoint "arn:aws:
sagemaker
浏览 6
提问于2020-10-02
得票数 3
回答已采纳
1
回答
SageMaker
批处理转换:无法
将
字符串转换为浮点型'*‘
、
、
、
、
简单地说,我想对我使用
SageMaker
实验创建的XGBoost
模型
执行批处理转换。我
在
存储
在
S3中的csv数据上训练了我的
模型
,为我的
模型
部署
了一个端点,成功地用一条csv线击中了所述端点,并得到了预期的推断。现在,我
尝试
使用从上面的教程创建的
模型
来运行批处理转换,但我遇到了错误(跳到底部查看我的错误日志)。
在
我开始讨论错误之前,我想展示一下我的批处理转换代码。'
ValueError
浏览 1
提问于2021-02-12
得票数 0
1
回答
WAB和WAR之间的区别
、
、
我是一个新手,读过关于WAB的文章,但我想澄清一下基本的区别--我的意思是使用tomcat中嵌入的osgi,制造一场战争与制造一个WAB?1)嵌入tomcat的OSGI3)使用WAB
浏览 3
提问于2012-07-05
得票数 7
回答已采纳
2
回答
ServiceMix (FuseESB)
在
jar启动
时
找不到Camel javascript支持
、
、
、
、
在
将
驼峰路由
部署
到
FuseESB
时
,当FuseESB
尝试
启动jar文件
时
,它在日志中显示以下异常:(objectClass=org.apache.camel.spi.LanguageResolver)) 这会导致
捆绑
包
进入几分钟的宽限期,在此之后它将超时,其状态
将
变为失败。请注意,我
浏览 53
提问于2013-02-16
得票数 0
1
回答
从mlflow注册中心到
sagemaker
的服务
模型
、
我
在
mlflow注册表中也有一个
模型
,我想使用mlflow
sagemaker
run-local
部署
它,因为
在
本地测试之后,我将把所有东西都
部署
到
亚马逊网络服务和
Sagemaker
。我的问题是,当我运行: export MODEL_PATH=models:/churn-lgb-test/2mlflow
sagemaker
run-local
浏览 8
提问于2020-07-27
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何用TF Serving部署TensorFlow模型
TensorFlow 到底有几种模型格式?
在首次发布三周之后,MLflow迎来了0.2版本
轻松构建 PyTorch 生成对抗网络(GAN)
10+位机器学习大神测评 Amazon SageMaker 全流程实战
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券