腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
Tensorflow
中
的
特定
gpu
设备
上
放置
加载
的
冻结
模型
python
、
tensorflow
、
gpu
、
inference
、
multiple-gpu
我有一个
冻结
的
模型
和4个gpus。我想尽可能快地对更多
的
数据进行推断。我基本
上
想要执行数据并行,其中相同
的
模型
在
4个批上执行推理:每个
gpu
一个批处理。 这就是我大致想要做
的
。in ['/
gpu
:0', '/
gpu
:1', '/
gpu
:2', '/
浏览 12
提问于2019-10-10
得票数 1
0
回答
如何在inception v3训练
模型
上
运行推理?
tensorflow
、
imagenet
我已经成功地
在
定制200个类
上
从头开始训练了inception v3
模型
。现在我
在
我
的
输出目录中有了ckpt文件。如何使用这些
模型
来运行推理?最好是
在
GPU
上
加载
模型
,并在
模型
保留在
GPU
上
时随时传递图像。使用
TensorFlow
服务对我来说不是一个选择。 注意:我曾尝试
冻结
这些
模型
,但在<e
浏览 5
提问于2017-11-27
得票数 0
2
回答
Tensorflow
C API选择
GPU
c++
、
c
、
tensorflow
、
tensorflow-c++
我正在使用
Tensorflow
C API来运行在python中保存/
冻结
的
模型
。我们过去
在
CPU
上
运行这些
模型
,但最近切换到
GPU
以提高性能。然而,我们现在
的
系统也有多个
GPU
,这导致了一些问题。看起来我不能让
Tensorflow
和我们
的
软件使用相同
的
GPU
。 我使用
的
visible_device_list参数与我们
浏览 3
提问于2020-06-16
得票数 2
2
回答
TensorFlow
的
自动
设备
配置处理多
GPU
的
情况吗?
keras
、
tensorflow
我知道,使用
TensorFlow
,可以手动控制我们声明变量
的
位置(例如:
GPU
上
的
神经网络
的
一半,另一个
GPU
上
的
其余部分)。尽管我们可以将变量手动
放置
在
多个
GPU
上
,但是它们是否可以自动地
放置
在这些
GPU
上
,例如使用自动变量
放置
?
TensorFlow
的
浏览 3
提问于2017-07-28
得票数 1
回答已采纳
1
回答
指定Torch和
Tensorflow
两种不同
的
GPU
tensorflow
、
cuda
、
pytorch
、
torch
我
在
比较两个预先训练过
的
模型
,一个
在
Tensorflow
,一个
在
Py手电,
在
一个有多个
GPU
的
机器
上
。每个型号适合一个
GPU
。它们都
加载
在
相同
的
Python脚本
中
。我如何将一个
GPU
分配给
Tensorflow
模型
,另一个
GPU
分配给Py火炬
模型</e
浏览 0
提问于2018-09-11
得票数 0
回答已采纳
1
回答
tensorflow
将softmax op放在cpu
上
而不是
gpu
上
c++
、
tensorflow
、
keras
、
gpu
我有一个有多个输入和几个层
的
tensorflow
模型
,还有一个最终
的
softmax层。该
模型
使用Python (使用Keras框架)进行培训,然后使用C++程序进行保存和推理,该程序可以方便
TensorFlow
的
CMake构建(基本
上
遵循以下说明:)。:0/task:0/
gpu
:0 为了保存图形,使用了freeze_graph脚本(上面生成日志
的
脚本再次以.pb格式
加载
冻
浏览 3
提问于2017-12-04
得票数 2
1
回答
是否可以为混合精度NN设置
GPU
亲和性,将FP32和FP16连接到不同
的
GPU
?
keras
、
tensorflow
、
nvidia
我想使用两者来训练,但是由于RTX可以处理两倍于FP16
的
速度,所以我想设置它,以便训练是多
GPU
的
,并且RTX处理FP16层,GTX处理FP32层。这在
tensorflow
、pytorch或keras下是可能
的
吗?
浏览 24
提问于2019-02-15
得票数 1
回答已采纳
1
回答
TensorFlow
v1.10+
加载
不同
设备
放置
的
SavedModel还是手动设置动态
设备
放置
?
python
、
tensorflow
、
tensorflow-serving
、
tensorflow-estimator
据我所知,如果没有手动
设备
放置
,
TensorFlow
没有某种形式
的
最佳
设备
映射(如果您安装了
GPU
版本,并且可以
在
CPU
上
使用
GPU
)。那你还有别的选择吗?,并希望稍后使用此SavedModel .也许
在
另一台机器
上
,一台可能没有训练
模型
的
设备
那么多
的
GPU
(或者没有
GPU
) 所以当你跑<e
浏览 0
提问于2018-11-17
得票数 1
1
回答
GPU
上
Tensorflow
输入流水线
tensorflow
、
gpu
tensorflow
示例CIFAR10使用输入管道将数据从磁盘
加载
到队列。我想为我自己
的
模型
实现这一点,但我遇到了一个错误,我无法以某种方式修复。这基本
上
就是
在
CIFAR10
中
所做
的
,只需要使用csv。脚本以MY_DEVICE = '/cpu:0‘运行,但是当我尝试
在
MY_DEVICE = '/
GPU
:0’
的
gpu
上
运行
浏览 0
提问于2017-03-13
得票数 4
回答已采纳
1
回答
基于
gpu
的
tensorflow
宽线性
模型
推理
tensorflow
、
gpu
、
tensorflow-serving
、
google-cloud-ml
、
tensorrt
我正在
tensorflow
上
训练一个稀疏逻辑回归
模型
。这个问题是关于推理部分
的
。我正在尝试
在
cpu和
gpu
上进行基准测试。我正在使用Nvidia P100图形处理器(4个芯片)
在
我当前
的
GCE盒
上
。当我记录
设备
放置
时,我只看到
gpu
:0正在使用,其余
的
都没有使用?
在
训练期间,我不做任何
设备
放置
,但在推理过程<e
浏览 0
提问于2018-05-17
得票数 0
1
回答
TensorFlow
服务内存使用
python
、
tensorflow
、
tensorflow-serving
我很难
在
文档中找到关于如何在
TensorFlow
服务中保存和
加载
模型
的
特定
信息,以及
在
CPU与
GPU
上
运行时可能存在
的
差异。为了服务多个
模型
(以及每个
模型
的
一个或多个版本),一个一般工作流是: 创建包含
的</em
浏览 2
提问于2019-05-31
得票数 5
回答已采纳
2
回答
如何指定用于保存
的
模型
的
设备
c++
、
tensorflow
我有一个用python
tensorflow
训练并保存
的
模型
。现在,我想在c++应用程序
中
执行预测。我像这样
加载
模型
(
在
Tensorflow
1.3.1
上
):
tensorflow
::Sta
浏览 14
提问于2018-01-24
得票数 1
回答已采纳
1
回答
我没有Nvidia
GPU
,我想在CPU
上
运行
Tensorflow
模型
。为什么它一直要求一些数据自动化系统DLL?
python
、
tensorflow
、
gpu
、
cpu
我跟着 具体来说,我想运行一个下载
的
Tensorflow
模型
,从Github。我
的
电脑
上
只有一个英特尔
GPU
,所以我想在我
的
CPU
上
执行
Tensorflow
模型
。正如所描述
的
,通过将use-
gpu
参数设置为false应该是可能
的
。python test_model.py model=iphone_orig dped_dir=dped/ test_subs
浏览 0
提问于2019-07-25
得票数 3
回答已采纳
2
回答
支持
TensorFlow
和PyTorch
的
GPU
tensorflow
、
pytorch
、
gpu
好吧,所以我现在做了很多深度学习项目和实习,我从来没有做过大量
的
训练。但是最近我一直
在
考虑做一些传输学习,我需要在
GPU
上
运行我
的
代码。我还没有
在
我
的
系统
上
安装NVIDIA工具包或cuDNN或
tensorflow
-
gpu
。我目前使用
tensorflow
和Py手电筒来训练我
的
DL
模型
。所以,如果我确保安装了正确版本
的
Cuda和cuDNN以及
浏览 5
提问于2020-08-20
得票数 1
2
回答
Keras with
Tensorflow
后端-
在
CPU
上
运行预测,但适合在
GPU
上
运行
python
、
tensorflow
、
keras
、
keras-rl
我正在使用keras-rl使用D-DQN算法训练我
的
网络。我正在使用model.fit_generator()函数
在
GPU
上
运行我
的
训练,以允许
在
GPU
进行backprops时将数据发送到
GPU
。我怀疑与
GPU
处理数据
的
速度相比,数据
的
生成速度太慢了。 在生成数据时,正如D-DQN算法所指示
的
那样,我必须首先使用我
的
模型
预测Q值,然后使用这些值进
浏览 5
提问于2018-07-25
得票数 5
1
回答
CPU使用率-8个CPU
的
30%,1个
GPU
意味着什么?
performance
、
google-cloud-platform
、
cpu-usage
我
在
GCP
上
创建了一个具有8个CPU和1个
GPU
的
VM实例(Nvidia Tesla)。现在,当我运行一个任务(针对自定义语言训练Mozilla
的
Deepspeech
模型
)时,我发现该程序只消耗了30%
的
CPU(
在
GCP监控页面上)。现在,我想减少CPU
的
数量,因为未来
的
任务将具有与初始任务相同
的
计算顺序(我
的
意思是,为什么要不必要地浪费资源?)。我应该将我
的
CP
浏览 1
提问于2019-04-15
得票数 0
1
回答
在
TensorFlow
中
添加一个新
设备
tensorflow
、
xpu
在
TensorFlow
中
,会话将图形操作
放置
到
设备
(如_CPU_s或_
GPU
_s )
上
,并提供执行它们
的
方法。是否可以向
TensorFlow
添加额外
的
设备
类?除了CPU和
GPU
之外,我们叫它XPU?
浏览 1
提问于2016-02-04
得票数 7
回答已采纳
1
回答
在
知识蒸馏
中
,学生
模型
和教师
模型
如何并行运行?
tensorflow
、
machine-learning
、
neural-network
、
pytorch
、
mxnet
它们逐步执行学生和教师
模型
的
前向操作,即不在不同
的
设备
(
GPU
或CPU)
上
并行执行。我正在尝试加快这个训练过程,以便使用多个
设备
同时运行两个
模型
(例如,
在
CPU
上
加载
一个
模型
,而不中断另一个
模型
的
GPU
训练)。 并行运行两个
模型
的
正确方法是什么?是否可以使用Python multiproces
浏览 5
提问于2020-09-11
得票数 0
1
回答
Tensorflow
操作未放在
GPU
上
tensorflow
、
tensorflow-gpu
我有一个很大
的
模型
,我构建在一个with tf.device('/
gpu
:0')
中
,因为我希望如果可能的话,所有的操作都放在那里。然而,
在
更新到1.4 (从1.2)之后,
tensorflow
坚持将所有操作放在cpu
上
(根据log_device_placement
的
说法)。我不能关闭软
设备
放置
,因为似乎有一些操作(与计算形状相关,以及AdamOptimizer)似乎不能放在图形处理器<em
浏览 21
提问于2017-12-28
得票数 1
1
回答
object_detection_API
中
重量掩蔽器
Tensorflow
2
的
错误
冻结
tensorflow
、
openvino
我正在培训
Tensorflow
版本
的
maskrcnn初始v2
模型
,以便与OpenVino进行进一步
的
工作。在对
模型
进行培训之后,我使用object_detection_API目录
中
的
脚本
冻结
了
模型
:--输出目录inference_graph/platform/default/dso_loader.cc:44]成功打开动态
浏览 2
提问于2020-08-20
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorRT与TensorFlow 1.7 集成
Google和Nvidia 强强联手,带来优化版 TensorFlow 1.7
大规模分布式模型训练(02):TensorFlow分布式模型训练原理
蘑菇街自研服务框架如何提升在线推理效率?
在TensorFlow和PaddleFluid中使用多块GPU卡进行训练
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券