腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
0
回答
Tensorflow
:
使用
多线程
加载
/
运行
多个
模型
、
、
在许多应用程序中,我们在一个GPU上部署了
多个
经过训练的NN
模型
。此外,为了充分发挥GPU的计算能力,我们还必须
使用
多线程
技术。例如,在我的应用程序中有两个不同的
tensorflow
CNN
模型
,我想在两个不同的线程中
运行
(即推断/部署)它们。cnn2_model_run,args=...) thread_0.start()然而,结果表明,这两个cnn
模型<
浏览 3
提问于2017-06-03
得票数 1
4
回答
运行
Keras
模型
在
多线程
中进行预测
、
、
、
、
类似于,我正在
运行
一种异步强化学习算法,需要在
多个
线程中
运行
模型
预测,以便更快地获得训练数据。我的代码基于 on GitHub,它的神经网络建立在Keras &
Tensorflow
之上。__init__() self.env = env_ # type: Environment self.actor = actor_ # type: ActorNetwork # TODO:
使用
q( a# type: float self.n_step = n_step_ # type: int
浏览 2
提问于2017-03-31
得票数 23
1
回答
在
加载
旧版本的
模型
时,未找到用于请求的Servable
、
我有一个
模型
,比方说mymodel和两个不同的数据集:setA,setB。经过培训(在我的本地机器中) setA和setB,
tensorflow
服务分别创建了两个不同的目录:100、200 for setA和setB。在码头中托管
模型
100 200 root@ccb58054cae5:/# bazel-bin/
tensorflow
_serving&> log &
浏览 2
提问于2017-12-14
得票数 1
1
回答
Tensorflow
2多次同时预报
、
、
、
在
Tensorflow
2中,在用tf.saved_model.load(my_model)
加载
保存的
模型
之后,如何
使用
相同的
模型
(而不是图)
运行
多个
预测?import
tensorflow
as tftf.saved_model.lo
浏览 5
提问于2020-02-14
得票数 0
回答已采纳
1
回答
TensorFlow
服务频繁的请求超时
、
、
日志和截图减少
加载
和服务
模型
的数量,但不是预期的解决方案,因为这需要设置
多个
不同的GPU实例,每个实例只
加载
和服务
模型
的一个子集。Serving version: 1.9
TensorFlow
serving在
多个
AWSg2.2xlarge实例上
运行</em
浏览 37
提问于2018-09-03
得票数 5
1
回答
如何在
tensorflow
中通过CPU中的一个图执行
多个
会话
、
、
、
、
目前我正在构建一个
Tensorflow
图,然后在C++中执行图形->getSession()C++(输入、
模型
、输出)通过并行执行
多个
会话,处理时间是否是恒定的?示例:如果一个会话花费100 ms,那么同时
运行
两个会话大约需要100 ms。 注意:我想在CPU上
运行
这个程序。
浏览 1
提问于2018-06-11
得票数 1
2
回答
Tensorflow
中线程安全图的
使用
、
、
、
、
我有一个flask应用程序,它首先
加载
一个keras
模型
,然后执行预测函数。根据this answer,我将
tensorflow
图保存在一个全局变量中,并将相同的图用于预测函数。@app.route('/predict', methods=['GET']) load_model() predict() 然而,当
多个
请求被发送到服务器时如何使此代码线程安全,或者更具体地说,如何在
多线程
环境中正确
浏览 4
提问于2019-01-10
得票数 3
回答已采纳
1
回答
tensorflow
服务支持
多线程
吗?
、
、
我对
使用
tensorflow
发球有一些问题。 我
使用
tensorflow
服务将我的
tensorflow
模型
部署为RESTful API。但我怀疑tf服务服务器是否支持
多线程
。我还注意到
tensorflow
_model_server有--
tensorflow
_session_parallelism选项,但
使用
该选项会使服务器速度更慢。是否有任何关于
使用
tensorflow
与
多
浏览 1
提问于2017-12-15
得票数 6
1
回答
C++
Tensorflow
,如何
使用
多线程
运行
会话->Run(),或花费更少的时间
、
、
、
我在CPU上
运行
下面所有的代码。我
运行
示例ensorflow/examples/label_image耗时7~8秒。据我所知,
TensorFlow
花费了0.5秒来处理相同的样本,这是因为“python会话对象是
多线程
的,所以
多个
线程可以很容易地
使用
相同的会话并并行
运行
ops”。但是,我如何在C++的会话中设置
多线程
。 我所尝试的..。我在"
tensorflow
/
tensorflow</e
浏览 11
提问于2017-01-18
得票数 6
1
回答
在
使用
线程进行数据
加载
训练时,在验证集上保存性能最好的
TensorFlow
模型
的最有效方法
、
、
,因为我会浪费资源,即cifar10_eval.py将
运行
的GPU。2)
使用
权重共享(
tensorflow
/models/image/mnist/convolutional.py )创建验证
模型
。好得多,但我不喜欢我需要记住所有的
模型
参数,我确信在
TensorFlow
中有一种更好的共享参数的方法,即我可以复制
模型
并说它是用于参数共享的,但是输入提要是不同的吗?3)我目前正在做的是
使用
tf.placeholder
浏览 2
提问于2016-10-24
得票数 1
回答已采纳
1
回答
运行
具有大量内存需求的python脚本
、
、
、
、
我需要
运行
python脚本,在其中
加载
几个(~15)大模块,包括keras和
加载
几个(大约20)个LSTM
模型
,以及大量的计算数据。这些脚本有几个方法,需要为一个强化学习问题构建一个环境类。这个过程在我的16 of内存i7 CPU上似乎
运行
得非常慢(还没有尝试多处理模块,但可能无法工作,因为大多数任务不是并行性友好的)。
浏览 0
提问于2018-08-02
得票数 0
0
回答
如何在多核上
运行
Keras?
、
、
、
、
我在集群上
使用
带有
Tensorflow
后端的Keras (创建神经网络)。我如何在集群上以
多线程
方式
运行
它(在
多个
内核上),或者这是由Keras自动完成的吗?例如,在Java中,可以创建
多个
线程,每个线程在一个核心上
运行
。 如果可能,应该
使用
多少核?
浏览 3
提问于2017-01-11
得票数 19
回答已采纳
1
回答
作为tf.keras.Model的子类实现的Monte Carlo Dropout
、
、
、
但是,我想知道是否可以通过对
tensorflow
.keras的Model类进行子类化来实现它。
使用
更典型的方式,通过子类化Model的类来实现
模型
,提供了对轻松
加载
和保存Keras
模型
的支持,而不需要任何其他代码,然后在
运行
时(一次)调用predict。这在
使用
Tensorflow
服务时可能特别有用,但在通过其他Python脚本
加载
它时也已经增加了一些舒适性。(例如,在比较
多个
不同的
模型
时。)
浏览 0
提问于2020-04-24
得票数 1
1
回答
Tensorflow
for Android
、
、
、
我正在尝试
使用
tensorflow
创建一个android应用程序来进行对象分类。我
使用
MobileNet-SSD训练了一个简单的
模型
。我根据给定的的guid行创建了应用程序。它与示例中
使用
的
模型
一起工作得很好,但对于我创建的
模型
,它给了我以下错误: Caused by: java.lang.RuntimeException: Node 'output' does not existin model 'file://
浏览 14
提问于2017-08-13
得票数 1
回答已采纳
1
回答
如何在单进程模式下
运行
tensorflow
?
、
我正在尝试在没有GPU支持的SLF6上
运行
tensorflow
1.13.1和Python 2.7。当我启动我的
模型
时,
tensorflow
似乎正在产生
多个
子进程,并并行
运行
我的
模型
,试图
加载
系统中的每个核心。虽然在大多数情况下,这可能是一个人想要的,但这不是我的情况。我只想在单核上
运行
我的
模型
。OMP_NUM_THREADS=1export KMP_AFFINITY=
浏览 32
提问于2019-05-07
得票数 0
回答已采纳
19
回答
烧瓶和Keras
模型
错误‘_线程。_local’对象没有属性值‘?
、
、
、
我
使用
以下内容:Python3.6.4Keras = 2.3.0, model_path = self.conf["model_path"] // path in conf to
浏览 15
提问于2019-09-19
得票数 18
回答已采纳
1
回答
.lite和.tflite格式有什么区别?
、
、
、
、
.lite和.tflite格式(
TensorFlow
格式)有什么区别?如果没有区别,为什么会有两个呢? 除了这个问题,我似乎无法将带有.lite扩展文件的
模型
上传到Firebase工具包。
浏览 0
提问于2018-08-31
得票数 4
回答已采纳
1
回答
Keras
Tensorflow
-从
多个
线程预测时出现异常
、
、
我
使用
的是keras 2.0.8和
tensorflow
1.3.0后端。from keras import backend as K return self.cnn_model.predict(X) 我
浏览 1
提问于2017-10-13
得票数 14
回答已采纳
1
回答
vast.ai中的Keras多GPU
、
、
、
我试图
使用
多个
GPU在vast.ai上
运行
一个keras
模型
。为此,我
使用
的是keras.utils.multi_gpu_model,但是一直存在以下错误: model = multi_gpu_model(model) 我<
浏览 0
提问于2020-02-05
得票数 1
2
回答
当其他
模型
仍在内存和
使用
中时,如何在删除
模型
之后释放Python中的TF/Keras内存?
、
、
、
我有一个Python应用程序,它提供
TensorFlow
/ Keras
模型
推理服务。可以为
多个
不同的客户端同时
加载
和
使用
多个
不同的此类
模型
。客户端可以请求
加载
另一个
模型
,但这对其他客户端没有任何影响(即它们的
模型
保留在内存中并按其本身
使用
,因此每个客户端都可以请求
加载
另一个
模型
,而不管其他客户端的状态如何)。当客户端请求
加载
一个新<e
浏览 3
提问于2021-01-14
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Tensorflow教程-保存和加载模型
Tensorflow学习笔记-模型、图的存储与加载
使用 SIMD 和多线程增强 TensorFlow.js WebAssembly 后端
在Docker Compose上使用GPU运行TensorFlow
tensorflow模型导出与OpenCV DNN中使用
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券