腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Tensorflow
服务
批处理
参数
、
如何使用max_batch_size、batch_timeout_micros、num_batch_threads等
参数
进行
批处理
性能调优?尝试在查询客户端中使用这些
参数
,但不起作用。在下面的示例中,我有100个图像,我希望
批处理
大小为10。查询针对所有图像运行,而不是10。bazel-bin/
tensorflow
_serving/example/demo_batch --server=localhost:9000 --max_batch_size=10 另外,对于
批
浏览 22
提问于2017-03-07
得票数 4
1
回答
有自定义循环和不带自定义循环的Keras中的自定义损失返回值回归
、
、
、
当在Keras模型中定义自定义丢失时,在线源似乎表明损失应该返回一个值数组(
批处理
中的每个样本都会丢失一个值)。squared_difference, axis=-1) 在上面的示例中,我不知道模型何时或是否采用
批处理
和或
浏览 6
提问于2020-11-11
得票数 2
回答已采纳
1
回答
Tensorflow
服务
中的调试
批处理
(没有观察到效果)
、
、
我有一个小型的web
服务
器,它可以获得句子的输入,并且需要使用
Tensorflow
服务
返回模型预测。它可以很好地使用我们的单个GPU,但是现在我希望能够进行
批处理
,这样
Tensorflow
服务
就可以在GPU上对传入的句子进行分组,然后将它们合并在一起处理。我使用的是和,使用了
Tensorflow
服务
的初始版本。日志记录确实确认已启用
批处理
,并且正在使用GPU。 但是,当向
服务
服务
器发送请求时,<em
浏览 0
提问于2017-05-29
得票数 9
回答已采纳
1
回答
用于在CloudML上部署的
TensorFlow
输入管道
、
、
、
我是
TensorFlow
的新手,在修改一些示例以使用带有输入函数的
批处理
/流处理时遇到了麻烦。更具体地说,修改此脚本以使其适合于在Google Cloud ML上进行培训和
服务
部署的“最佳”方法是什么?我知道如何处理pandas,但在那里我不能将转换应用于
批处理
(使用chunk_size
参数
)。如果我能在
TensorFlow
中重用我的pandas预处理管道,我会非常高兴。
浏览 1
提问于2017-04-23
得票数 0
1
回答
每个模拟设备的学习
参数
、
、
tensorflow
联邦是否支持为不同的模拟设备分配不同的超
参数
(如
批处理
大小或学习率)?
浏览 1
提问于2020-02-19
得票数 0
2
回答
为什么在将
批处理
维度作为
参数
传递给“`Dense`”层时,`input_shape`不包括
批处理
维度?
、
、
在Keras中,为什么input_shape在将
批处理
维度作为
参数
传递给像Dense这样的层时不包含
批处理
维度,而在将input_shape传递给模型的build方法时却包含
批处理
维度?import
tensorflow
as tf model1
浏览 3
提问于2020-11-04
得票数 13
回答已采纳
1
回答
TensorFlow
服务
频繁的请求超时
、
、
有趣的是,
批处理
的最大持续时间约为700ms,配置的最大
批处理
大小为10。平均
批处理
持续时间约为60ms。我们已经检查了
TensorFlow
服务
日志,但没有发现警告或错误。时间解操作系统平台和发行版(例如,Linux Ubuntu 16.04):Ubuntu 16.04
TensorFlow
Serving安
浏览 37
提问于2018-09-03
得票数 5
1
回答
在java中使用训练有素的
tensorflow
的最佳方法是什么?
、
、
、
现在,我尝试在这个UI中使用经过训练的
tensorflow
文件。(这个
tensorflow
文件位于python下面)请写出你的意见,其中有更多的优点或较少的缺点。
浏览 0
提问于2018-02-06
得票数 0
回答已采纳
1
回答
BERT的最佳批次和周期数
、
、
、
、
我使用本教程https://www.
tensorflow
.org/text/tutorials/classify_文本_使用_伯特,并根据时间号和
批处理
大小获得不同的精度。什么是最优
参数
?
浏览 0
提问于2021-11-14
得票数 1
回答已采纳
3
回答
std::bad_alloc的流量
服务
失败
、
、
我试图使用docker组合(
服务
模型+微
服务
)运行
tensorflow
服务
,但是
tensorflow
服务
容器失败,错误出现在下面,然后重新启动。microservice | To enable them in other operations, rebuild
TensorFlow
with the appropriate compiler flags.
tensorflow
-serving | terminate called after
浏览 15
提问于2022-09-12
得票数 0
2
回答
在
服务
TensorFlow
模型的性能中使用GPU有什么影响?
、
目前,我想使用
TensorFlow
服务
来
服务
这个模型。我只想知道在
服务
过程中使用GPU是否对性能有相同的影响?由于培训适用于
批处理
,但是推断(
服务
)使用异步请求,您是否建议在使用
TensorFlow
服务
为模型
服务
时使用GPU?
浏览 12
提问于2017-05-23
得票数 3
回答已采纳
1
回答
如何限制
tensorflow
_model_server一次只能处理一个请求?处理多个请求会导致系统崩溃
、
、
、
、
如何限制
tensorflow
_model_server一次处理一个请求?由于CPU和RAM的使用,处理多个请求会导致系统崩溃。理想情况下,我希望其他请求排在后面,一个接一个地处理。我目前尝试将
参数
grpc.max_concurrent_streams=1作为
tensorflow
_model_server下的--grpc_channel_arguments的一部分传入,但似乎不起作用我已经考虑过使用像Redis Queue/Celery这样的进程队列,但这并不理想,因为我通过API调用
Tensorflow
的推理,并
浏览 1
提问于2018-09-27
得票数 0
1
回答
只使用model.fit和只使用steps_per_epoch的Keras batch_size的区别
、
、
、
使用model.fit和batch_size
参数
运行steps_per_epoch时,会收到以下错误: 我知道这两个
参数
在某种程度上是等价的。但是,在我的膝上型计算机上(使用带有2GB VRAM的GeForce 940 M显卡并训练cifar10数据集),当我运行model.fit时,
浏览 1
提问于2018-05-10
得票数 2
回答已采纳
1
回答
将resnet实现从caffe转换为
tensorflow
、
、
、
、
我想从零开始实现resnet 50,它是由原著作者在caffe中实现的,但是我想要
tensorflow
实现,因为这个存储库:和这个映像:,我知道每个等价的(在
tensorflow
中),但是我不知道在
批处理
规范化之后,规模的含义,你能解释一下批次规范中的“使用全局状态”
参数
的含义吗?
浏览 1
提问于2017-11-12
得票数 1
回答已采纳
1
回答
在GPU外部
服务
器上进行培训时的OOM
、
、
、
我正在尝试使用Keras和
tensorflow
后端在带有GPU的远程
服务
器上训练我的深度学习代码。然而,即使是GPU
服务
器也会声明OOM。下面是输出: 2018-02-09 14:19:28.918619: I
tensorflow
/core/common_runtime/bfc_allocator.cc:685]统计:限制: 10658837300****************************************************************xxxxxx201
浏览 3
提问于2018-02-12
得票数 0
1
回答
TensorFlow
中的批归一化初始化器
在
TensorFlow
中,
批处理
规范化
参数
包括beta、gamma、moving mean和moving variance。但是,为了初始化这些
参数
,tf.contrib.layers.batch_norm(*args, **kwargs)中只有一个名为param_initializers的
参数
,根据文档,它包含beta、gamma如何使用param_initializers初始化这些
参数
?
浏览 2
提问于2017-02-14
得票数 0
回答已采纳
1
回答
在重新培训的初始阶段使用
批处理
请求
、
、
、
我正在尝试使用来自
tensorflow
的retrain.py (实际上可以在集线库中获得)在经过再培训的初始空间模型上使用
批处理
请求。不幸的是,我没有找到任何可用的文档。基本上,我使用inception_client.py在码头容器上执行对
tensorflow
_model_server的请求,当有一个映像(即使使用
参数
--enable_batching)时,它工作得很好我尝试使用一个由10个图像组成的堆叠列表,使用tf.stack()测试
批处理
,但它会引发以下异常: AbortionError(code
浏览 1
提问于2018-09-28
得票数 0
1
回答
如何使用legacy_seq2seq实现多维输入rnn
、
如果模型的每个输入都有更多的
参数
。说,[1,2,2,3,3,4...]而不是1,2,3,4,...,它不能使用legacy_seq2seq来拥有
批处理
方法。那么,如何使用
tensorflow
实现
批处理
方法中的多维输入rnn呢?或者它不存在?
浏览 13
提问于2018-01-12
得票数 0
1
回答
培训数据“批”如何分发给
Tensorflow
的工人?
、
我正在使用CIFAR10示例运行分布式
Tensorflow
,该示例包含多达128个工作人员和1个
参数
服务
器。这种差异对性能有影响,因为将
批处理
划分到太多的工作人员会导致过多的通信和计算不足。
浏览 2
提问于2016-10-07
得票数 1
回答已采纳
1
回答
云ML模型预测
、
、
、
我已经在云ML中部署了
tensorflow
保存的模型,用于文本分类,如下所示: keep_prob: shape: (-1) Method name is:
tensorflow
浏览 0
提问于2018-08-12
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorFlow 篇 | TensorFlow 2.x 基于 HParams 的超参数调优
dos命令call图文教程,调用bat批处理脚本,传递参数跳转标签语句
Appium 服务器参数
TensorFlow官方发布剪枝优化工具:参数减少80%,精度几乎不变
浅析参数服务器
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券