腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从
S3
加载
新版本
的
模型
时
出现
Tensorflow
服务
错误
、
、
我通过在K8S集群中使用专用部署
的
TF
服务
来为TF
模型
提供
服务
。我正在使用一个部署在与TF Serving相同
的
名称空间中
的
MinIO实例。我使用以下环境变量对其进行了配置,以便让TF Serving访问
S3
并同步适当
的
文件 value: model-name://ROOT-BUCKET - name: TF_CPP_MIN_LOG_LEVEL
浏览 58
提问于2019-07-18
得票数 1
1
回答
来自
s3
路径
的
Tensorflow
不工作-找不到基本路径
s3
://bucketname
、
、
从
s3
加载
模型
对我不起作用。根据#615,我使用以下方法编译了
服务
器:现在当我运行它
的
时候 bazel-bin/
tensorflow
_serving/model_s
浏览 2
提问于2017-11-23
得票数 2
1
回答
运行
tensorflow
软件包
的
AWS Lambda超过250 MB
、
、
、
我需要对
tensorflow
-keras
模型
进行分段预测。我
的
想法是将图像上传到
S3
桶中,并使用AWS
服务
,触发进程,进行预测,并将分段
的
预测掩码保存到新
的
S3
桶中。在开始
时
,我用下面的库创建了一些层,以运行
模型
: 问题是
tensorflow
版
浏览 9
提问于2020-06-12
得票数 0
回答已采纳
2
回答
使用
tensorflow
.keras
加载
经过load_model训练
的
模型
会返回JSON解码
错误
,而未经训练
的
模型
通常会
加载
、
、
、
、
我使用
tensorflow
.keras API构建和训练了一个经过训练
的
Keras
模型
,并使用没有可选参数
的
tf.keras.save_model()方法进行保存。
Tensorflow
是最新
的
,我
的
Python版本是3.8。据我理解,这个方法应该使用TF 2.X中推荐
的
默认"tf“格式保存
模型
,然后使用load_model()应该可以正常工作。,我再次在木星笔记本上构建了相同
的
模型
,保存了
浏览 23
提问于2021-09-23
得票数 3
2
回答
TensorFlow
服务
S3
和码头
、
我试图找到一种使用
Tensorflow
的
方法,它可以添加新
的
模型
和
模型
的
新版本
。我可以将
tensorflow
服务
指向
S3
桶吗?还是我需要建立自己
的
码头形象,才能从
s3</em
浏览 2
提问于2019-01-23
得票数 1
回答已采纳
1
回答
张量流
服务
码头无效场
、
、
在
tensorflow
模型
服务
器中运行示例
时
docker run -p 8501:8501 --mount type=bind, source=serving/
tensorflow
_serving/servables/
tensorflow
/testdata/saved_model_half_plus_two_cpu, target=/models/half_plus_two -e MODEL_NAME=h
浏览 0
提问于2018-10-02
得票数 8
回答已采纳
1
回答
在
TensorFlow
中
加载
导出
模型
、
、
我有一个在图形处理器机器上训练
的
TensorFLow
模型
。接下来,我需要将其导出并部署到仅限CPU
的
生产机器上。new_saver = tf.train.import_meta_graph('assets/saved_model/export.meta') new_saver.restoreread_meta
浏览 2
提问于2016-11-16
得票数 1
1
回答
Sagemaker
Tensorflow
2.0端点
、
、
我有一个
tensorflow
2.0
模型
,我想部署到AWS sagemaker端点。我已经将
模型
移到了
S3
存储桶中,并执行了以下代码,但由于没有TF2.0图像,因此
出现
了下面的
错误
。如果我尝试使用不同
的
版本(例如1.4、1.8)进行部署,我会收到ping超时
错误
。失败。= '
s3
://sagemake
浏览 16
提问于2019-11-19
得票数 0
回答已采纳
1
回答
在
加载
旧版本
的
模型
时
,未找到用于请求
的
Servable
、
我有一个
模型
,比方说mymodel和两个不同
的
数据集:setA,setB。经过培训(在我
的
本地机器中) setA和setB,
tensorflow
服务
分别创建了两个不同
的
目录:100、200 for setA和setB。在码头中托管
模型
100 200 root@ccb58054cae5:/# bazel-bin/
tensor
浏览 2
提问于2017-12-14
得票数 1
2
回答
拥抱脸部
模型
Bio_ClinicalBERT产生404
错误
、
、
我正在使用emilyalsentzer/Bio_ClinicalBERT
的
拥抱人脸实现构建一个命名实体识别(NER)
模型
。到今天为止,我对这个
模型
没有任何问题。emilyalsentzer/Bio_ClinicalBERT'导致此
错误
: 404客户端
错误
:找不到url: 拥抱脸有没有提供任何形式
的
浏览 2
提问于2021-05-21
得票数 2
1
回答
模型
热负荷入流
服务
容器
、
我知道如何将
模型
加载
到容器中,而且我也知道我们可以创建一个静态配置文件,当我们运行一个
tensorflow
服务
容器
时
,将它传递给容器,然后在该配置文件中使用
模型
,但是我想知道是否有任何方法将一个全新
的
模型
(不是前一个
模型
的
更
新版本
)热
加载
到运行中
的
tensorflow
服务
容器中。我
的
意思是,我们使用
模型
浏览 0
提问于2019-04-15
得票数 2
回答已采纳
2
回答
无法使用react将tflite自定义
模型
加载
到web
、
、
、
、
我在aws上有两个作为
s3
对象托管
的
tflite
模型
。在我
的
反应打字应用程序中,如果浏览器是在移动上打开
的
,我会尝试
加载
这些
模型
。否则,该网络应用程序将使用其他更有效
的
模式。 我已经配置了
s3
桶,通过更改CORS配置,我可以从这个web应用程序访问它。这是可行
的
。如果我转到网络选项卡,就会看到
模型
的
提取:使用Chrome,我可以
浏览 11
提问于2022-05-19
得票数 6
回答已采纳
1
回答
Tensorflow
服务
模型
服务
器在轮询
s3
配置文件
时
不断重新添加相同
的
模型
我使用
Tensorflow
服务
来运行存储在
s3
桶中
的
模型
。我还将
模型
配置文件保存在单独
的
s3
桶中。我
的
用例是,为了在不需要重新启动
服务
器
的
情况下动态添加
模型
,我将定期轮询此配置文件以查看更改。在部署
的
舵图中,以下行定义用于轮询配置
的
s3
的
run命令和args - "
浏览 4
提问于2020-02-06
得票数 2
1
回答
新
的
tensorflow
版本什么时候上传到piwheels.org?
、
、
我在我
的
PC上使用了
Tensorflow
的
最
新版本
(1.12)来使用tf.keras创建一个自定义
模型
,当我在Raspberry (使用
Tensorflow
1.11)上
加载
它
时
,它会抛出一个
错误
。我运行
的
代码是:
错误
是: ValueError: Unknown initia
浏览 0
提问于2018-12-27
得票数 1
回答已采纳
2
回答
带有
S3
定位
的
Tensorboard
我试图使用
S3
path和tensorboard --logdir命令,并获得以下
错误
: 使用
的</
浏览 1
提问于2018-04-06
得票数 2
3
回答
我在google colab上训练了一个keras
模型
。现在无法在我
的
系统上本地
加载
它。
、
、
、
、
")如何解决这个问题??每次我在colab上创建一个
模型
并尝试在本地
加载
它
时
,我都无法这样做。获取此
错误
消息:Valu
浏览 10
提问于2018-10-30
得票数 6
1
回答
如何在网络上运行我
的
model.json文件来测试预测?
、
、
、
、
我
的
Tensorflow
.js文件model.json与文件夹中
的
bin文件一起创建了一个html文件,在html文件中,我想测试我
的
预测并获得反馈,但是当我在
服务
器上运行它
时
,它不起作用,有什么想法吗<html><script src="https://cdn.jsdelivr.net/npm/@
tensorflow
/tfjs@latest">&l
浏览 12
提问于2020-11-20
得票数 1
回答已采纳
3
回答
如何使SageMaker
的
参数可用--流动端点
、
、
我希望使SageMaker中
的
服务
端点可以使用一些超参数。培训实例可以使用以下超级参数访问输入参数: role=roleevaluation_steps=None,但是,在部署端点
时
,无法传递用于控制input_fn(serialized_input, content
浏览 0
提问于2018-03-22
得票数 1
回答已采纳
1
回答
在早期
的
tensorflow
版本中训练
加载
保存
的
模型
我最近使用Google AutoML
服务
创建了一个
模型
。 它
的
输出似乎是保存
的
模型
格式。但是,当我试图通过tf.saved_model.load
加载
它
时
,它会显示以下
错误
Op type not registered 'TreeEnsembleSerialize' in binary ...当我查找这个op
时
,我发现这个op存在于
Tensorflow
1.15中
的
tf.contri
浏览 8
提问于2021-01-31
得票数 0
1
回答
Tensorflow
为OOMKilled
服务
或与Kubernetes一起驱逐舱
、
我正在部署
tensorflow
服务
映像(
tensorflow
/ serving :最新- GPU )和Kubernetes (GKE),GPU节点(K80)托管在GCP上。桶
加载
版本
模型
。
Tensorflow
服务
将每个
新版本
的
模型
都提取出来并
加载
,当它完成后,他会卸载旧
的
版本(但看起来他把它保存在内存中) 当我在主机上
的
最大可用资源下使用极限/
浏览 1
提问于2019-07-24
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在首次发布三周之后,MLflow迎来了0.2版本
如何用TF Serving部署TensorFlow模型
说说深度学习模型的部署
Keras 3.0正式发布:可用于TensorFlow、JAX和PyTorch
如何基于 TensorFlow 2.0 用十行代码实现性能最佳的 NLP 模型?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券