腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
知道
哪个
GPU
tensorflow
模型
正在进行
训练
python-3.x
、
tensorflow
、
gpu
、
tensorflow2.0
我已经安装了
tensorflow
-
gpu
来在图形处理器上
训练
我的
模型
,并从下面确认了安装。import
tensorflow
as tf# PhysicalDevice(name='/physical_device:
GPU<
浏览 51
提问于2021-08-13
得票数 1
回答已采纳
2
回答
哪些最新的CUDA和cudnn版本兼容
tensorflow
1.15
gpu
?我在
tensorflow
网站上找不到
tensorflow
、
gpu
我正在尝试设置用于
gpu
计算的系统,以
训练
深度学习
模型
。所需的
tensorflow
版本为1.15
gpu
。我想
知道
我必须在系统中安装
哪个
版本的CUDA和CUDnn?
浏览 0
提问于2020-01-30
得票数 0
1
回答
Tensorflow
/ keras multi_
gpu
_model不分裂为多个
gpu
python
、
tensorflow
、
keras
、
multi-gpu
我遇到的问题是,我不能成功地把我的
训练
批次分成多个
GPU
。如果使用来自multi_
gpu
_model的
tensorflow
.keras.utils,则
tensorflow
将在所有可用的
gpu
(例如2)上分配全部内存,但如果监视nvidia,则只使用第一个
gpu
正如预期的那样,数据由cpu加载,
模型
在
gpu
上运行,
gpu
利用率为97% - 100%: 创建multi_
gpu
模型
浏览 0
提问于2019-03-06
得票数 0
2
回答
如何
指定用于保存的
模型
的设备
c++
、
tensorflow
我有一个用python
tensorflow
训练
并保存的
模型
。现在,我想在c++应用程序中执行预测。我像这样加载
模型
(在
Tensorflow
1.3.1上):
tensorflow
::Status status =
tensorflow
::Lo
浏览 14
提问于2018-01-24
得票数 1
回答已采纳
1
回答
多节点Spark集群上的分布式
Tensorflow
训练
apache-spark
、
tensorflow
、
cluster-computing
、
distributed
两台机器有2个NVIDIA
GPU
,一台机器是没有NVIDIA
GPU
的spark客户端主服务器。当我创建spark集群时,我看到它将
GPU
识别为仪表板上的资源。我正在尝试运行为发布的示例。pyspark.SparkContext(master = "spark://192.168.1.113:7077", ) 我看到<e
浏览 0
提问于2020-09-22
得票数 0
1
回答
CNN
模型
的可复制性
如何
?
keras
、
tensorflow
、
cnn
、
gpu
、
colab
我想用Google (
GPU
),Keras和
Tensorflow
来
训练
几个CNN架构。由于经过
训练
的
模型
由于
GPU
的支持不能重复,所以我想对
模型
进行多次
训练
,并确定结果的均值和标准差。我完全不确定我是否至少应该试着使
模型
的可重复性最小?import set_session config.
gpu
_options.allow_growth = True
浏览 0
提问于2019-11-02
得票数 1
回答已采纳
2
回答
在ML引擎预测上得到误差,但局部预测工作良好。
tensorflow
、
google-prediction
我正在本地机器上运行
TensorFlow
1.3 (通过PiP安装在MacOS上),并使用 "ssd_mobilenet_v1_coco“检查点创建了一个
模型
。本地预测(以下代码)运行良好,我得到了
模型
结果。我
知
浏览 5
提问于2017-08-30
得票数 2
回答已采纳
2
回答
TensorFlow
多
gpu
训练
中的
模型
并行性
tensorflow
我正在使用
tensorflow
在一台机器上
训练
几个
GPU
中的
模型
。然而,我发现速度比在一个
GPU
上
训练
要慢得多。我想
知道
tensorflow
是否在不同的
GPU
中并行地或顺序地执行子
模型
。例如:y = 2 z1 = tf.multiply(x, y) with tf.device('
浏览 2
提问于2018-04-02
得票数 0
回答已采纳
1
回答
在单个
gpu
上,
TensorFlow
能否
训练
出一个大于
GPU
内存的
模型
?
python
、
tensorflow
、
memory
、
gpu
、
ram
如果我有一个具有8GBRAM的
GPU
,并且我有一个
TensorFlow
模型
(不包括培训/验证数据),即10 8GB,那么
TensorFlow
可以
训练
这个
模型
吗?如果是,
TensorFlow
是
如何
做到这一点的?我不是在寻找分布式
GPU
培训。我想
知道
单个
GPU
的情况。我不关心培训/验证数据的大小。
浏览 0
提问于2020-12-09
得票数 1
1
回答
TensorFlow
和Keras
GPU
使用问题
python-3.x
、
keras
、
conv-neural-network
、
tensorflow2.0
、
ubuntu-20.04
我正在使用现有的
模型
来
训练
一个基于
Tensorflow
和Keras的CRNN
模型
。我正在使用anaconda-navigator来
训练
模型
。在
训练
模型
时,它似乎没有使用
GPU
,因为我的
GPU
使用率为5-6%。我附加了顶级-i命令Nvidia Xserver的图像,而且我的
gpu
没有被
Tensorflow
拾取,因为tf.test.
gpu
_device_name()只
浏览 20
提问于2021-01-08
得票数 1
2
回答
在服务
TensorFlow
模型
的性能中使用
GPU
有什么影响?
tensorflow-serving
、
tensorflow
我用
GPU
(1080 ti)
训练
了一个神经网络。
GPU
上的
训练
速度要比使用CPU好得多。由于培训适用于批处理,但是推断(服务)使用异步请求,您是否建议在使用
TensorFlow
服务为
模型
服务时使用
GPU
?
浏览 12
提问于2017-05-23
得票数 3
回答已采纳
1
回答
在Rstudio中加载在Google Cloud ML中
训练
的
tensorflow
SavedModel
python
、
r
、
tensorflow
、
keras
、
google-cloud-platform
我在Google Cloud ML中
训练
了一个
模型
,并将其保存为保存的
模型
格式。我已经附加了下面保存的
模型
的目录。usp=sharing 我试图使用以下代码将
模型
加载到R中,但它返回的<
tensorflow
.python.training.tracking.tracking.AutoTrackable>对象大小为552如果任何人可以正确加载
模型
,我很想
知道
你是
如何
做到的。它也应该能够加载到python中,我想这也可以工作。
浏览 10
提问于2019-12-13
得票数 0
1
回答
在DSX中使用
tensorflow
部署管道
python
、
tensorflow
、
jupyter-notebook
、
data-science-experience
我有一个使用python和
tensorflow
构建的
模型
。该
模型
经过
训练
,运行良好。我不
知道
该
如何
部署它?我的意思是,我
如何
调用此
模型
才能获得实际数据的分数?由于
TensorFlow
的原因,我无法使用Watson ML deploy。
浏览 1
提问于2017-10-21
得票数 0
1
回答
如何
让
Tensorflow
使用多路
GPU
tensorflow
、
gpu
我使用
Tensorflow
训练
一个具有3个
GPU
的
模型
。但是,我发现它只使用了1。代码没有任何
GPU
配置,因为我认为
Tensorflow
会自动检测
GPU
并自动将计算分配到3个
GPU
中。从附加的屏幕截图中,当
训练
程序开始时,检测到3个
GPU
,但温度监视器显示只有1个处于活动状态。
如何
在
训练
过程中同时使用3个
GPU
?
浏览 21
提问于2017-07-27
得票数 0
1
回答
指定Torch和
Tensorflow
两种不同的
GPU
tensorflow
、
cuda
、
pytorch
、
torch
我在比较两个预先
训练
过的
模型
,一个在
Tensorflow
,一个在Py手电,在一个有多个
GPU
的机器上。每个型号适合一个
GPU
。它们都加载在相同的Python脚本中。我
如何
将一个
GPU
分配给
Tensorflow
模型
,另一个
GPU
分配给Py火炬
模型
?设置CUDA_VISIBLE_DEVICES=0,1只告诉这两个
模型
这些
GPU
是可用的--我(在Python猜中),<e
浏览 0
提问于2018-09-11
得票数 0
回答已采纳
2
回答
如何
在Tegra X2上使用TesnorFlow-
GPU
模型
进行推理?
python
、
tensorflow
、
tegra
、
tensorrt
、
nvidia-jetson
我计划在TX2板上运行我的
tensorflow
-
gpu
模型
,看看它们在那里的表现
如何
。这些
模型
是在GTX
GPU
机上
训练
和测试的。 在tx2板上,Jetpack full不包含
tensorflow
。因此,
tensorflow
需要构建/安装,我已经看过几个教程并尝试过。我的python文件train.py和test.py期望
tensorflow
-
gpu
。
tensorflow
浏览 2
提问于2018-11-23
得票数 1
回答已采纳
2
回答
TensorFlow
中序列到序列
模型
的分布式(多设备)实现?
gpgpu
、
tensorflow
、
multi-gpu
、
lstm
、
recurrent-neural-network
是一个非常好的教程,在
TensorFlow
中
训练
序列到序列
模型
.我只想
知道
是否有一个分布式版本的,它利用(一组
GPU
)在单机上获得更好的性能?已经提到,可以
训练
一个大型的多层递归神经网络(参见图8和“
模型
并行
训练
”部分)。有谁
知道
目前的教程是否涵盖
模型
并行培训?如果没有,
如何
改进最初的教程来利用一组
GPU
?
浏览 2
提问于2016-03-03
得票数 2
回答已采纳
3
回答
我
如何
让Keras在特定的
GPU
上
训练
一个
模型
?
python
、
tensorflow
、
keras
、
deep-learning
在我的机构中有一个有2个
GPU
的共享服务器。假设有两个团队成员希望同时
训练
一个
模型
,那么他们
如何
让Keras在特定的
GPU
上
训练
他们的
模型
,以避免资源冲突?理想情况下,Keras应该
知道
哪个
GPU
目前正忙于
训练
一个
模型
,然后使用其他
GPU
来
训练
另一个
模型
。然而,情况似乎并非如此。默认情况下,Keras似乎只使用第一个
GP
浏览 0
提问于2018-11-29
得票数 4
回答已采纳
1
回答
如何
检查我的
模型
在
tensorflow
2.0上的
训练
是否使用了
gpu
加速
tensorflow2.0
我已经成功地使用fashion_mnist数据集在
TensorFlow
2.0中
训练
了一个
模型
,我想
知道
如何
才能
知道
它是否在
gpu
加速的帮助下
训练
过?
浏览 55
提问于2019-06-04
得票数 1
2
回答
我可以在异构机器上使用
TensorFlow
分布式培训吗?
tensorflow
、
deep-learning
、
distributed-computing
、
tensorflow2.x
我想
知道
这两台机器是否可以在
TensorFlow
中使用多工人培训,也就是说,在分布式培训期间,machine1使用CPU,machine2使用CPU。
Tensorflow
的版本为2.1.0
浏览 0
提问于2020-03-18
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorFlow中如何优雅给模型批量输入训练样本
圣诞礼物接收了
在TensorFlow和PaddleFluid中使用多块GPU卡进行训练
IBM:我 POWER 服务器比 TensorFlow 快 46 倍
掌握深度学习,为什么要用 PyTorch、TensorFlow 框架?
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券