腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
GPU
运行
Keras
Model.Predict
()
python
、
tensorflow
、
keras
、
tensorflow2.0
使用
Tensorflow CIFAR CNN demonstration,我验证了我的TF是否正确地
使用
了我的图形处理器。TF
使用
图形处理器
运行
model.fit(),它在HWiNFO64中看到了大约50%的
使用
率。=
model.predict
(np.expand_dims(img, axis=0)) # Here print(class_names[np.argmax(prediction)]) 我只看到1%的
GPU
使用
率( Chrome和
浏览 100
提问于2020-10-26
得票数 3
回答已采纳
1
回答
如何
在Tensorflow 2.0 +
Keras
中进行并行
GPU
推理?
tensorflow
、
keras
、
predict
、
tensorflow2.0
、
multi-gpu
我有TF-2.0
Keras
风格的模型,
使用
tf.Model.train() (两个可用的
GPU
)进行培训,我希望缩小推理时间。这两个
GPU
都得到了有效的
使用
(即使我对结果的准确性不太满意)。我似乎找不到
使用
tf.Model.predict()方法在
GPU
之间分发推理的类似策略:当我
运行
model.predict
()时,我(显然)只从这两个
GPU
中的一个获得
使用
。,我所读的解决方案将为每个
G
浏览 17
提问于2019-11-20
得票数 8
1
回答
让ray自动为每个任务分配一个
GPU
。
python
、
ray
我
使用
ray ()
运行
一个任务,将图像输入到从tensorflow.
keras
加载的盗梦空间v3网。我的任务如下(简化):def predict(image):model = InceptionV3(include_top=False, pooling='avg', input_shape=(1920, 1080, 3)) return
model.pr
浏览 0
提问于2019-11-07
得票数 1
回答已采纳
1
回答
如何
在
Keras
中
使用
存储在
GPU
中的数据调用
model.predict
tensorflow
、
gpu
、
keras
现在,在每次调用
model.predict
之前,我想要将数据上传到
GPU
中,做一些操作,然后
使用
存储在
GPU
中的输出调用
model.predict
,而无需下载到内存并将其移交给
keras
模型,以便再次上传到
gpu
。编辑:我想在图形处理器中对输入图像
使用
opencv操作,如果可能的话,直接
使用
输出来调用
model.predict
。
浏览 6
提问于2017-02-12
得票数 1
1
回答
在
Keras
,Tensorflow上,CPU的
使用
量比
GPU
的
使用
量还要多。
python
、
opencv
、
tensorflow
、
image-processing
、
keras
我想教一个图像分类CNN,并
使用
Keras
作为它。 图像尺寸为300x300x3。为了进行预测,我加载h5文件并
使用
OpenCV视频捕获来获取视频帧,对于我
使用
model.predict
(img_array)的每一个帧。当我查看Windows 10的任务管理器时,我看到Python脚本
使用
了我的处理器的%80,而
使用
了
GPU
的%2。这种CPU的
使用
会导致我的笔记本电脑出现滞后。
如何
减少CPU的
使用
并
浏览 2
提问于2020-01-27
得票数 0
1
回答
如何
检查theano是否只
使用
FP32?
neural-network
、
theano
、
keras
、
theano-cuda
[global]但是,当我
使用
theano后端
运行
keras
并调用
model.predict
时,返回的数组的numpy数据类型始终是FP64类型,而不是FP32类型。我不确定这是一个问题,还是
keras
/ theano在
GPU
上执行之前转换为FP32。有没有办法检查。如果我尝试在图形处理器上
使用
FP64,我希望theano可以发布错误或警告。
浏览 3
提问于2016-06-04
得票数 2
1
回答
强制
使用
Tensorflow后端的
Keras
在
GPU
上
运行
gpu
、
keras
、
python-3.6
、
tensorflow-gpu
我已经写了一个函数,它
使用
以tensorflow为后端的
keras
使用
vgg16网络来提取特征。问题是它默认在CPU上
运行
,而不是在
GPU
上
运行
。我确实有一台兼容
GPU
的机器,几天前,另一个代码(用于培训)正在
使用
GPU
。我添加了这个代码片段,以强制它到
GPU
,但它仍然不能工作。import tensorflow as tf
GP
浏览 0
提问于2017-07-20
得票数 2
3
回答
TF.
Keras
model.predict
比Numpy慢?
python
、
numpy
、
tensorflow
、
keras
、
deep-learning
我已经更新了问题,并产生了一个CPU-只有
运行
和
GPU
只
运行
。一般来说,在这两种情况下,直接的numpy计算似乎都比model. predict()快数百倍。')现在让我们
使用
model.predict
重新创建numpy函数。print(
model.predict
(X[:100]).argmax(1))我们还可以测试这些函数的
浏览 2
提问于2020-07-01
得票数 12
回答已采纳
2
回答
当构造`Model`实例时开启了急切模式,不支持在图形模式下调用`
Model.predict
`
tensorflow
、
flask
、
web
、
keras
(img) version_utils.disallow_legacy_graph('Model', 'pred
浏览 227
提问于2020-10-13
得票数 3
回答已采纳
1
回答
n_jobs = -1等价于角点
python
、
deep-learning
、
keras
、
scikit-learn
、
tensorflow
在
使用
带有n_jobs = -1的sklearn库的机器学习中,
使用
了我的所有cpu核,这加快了网格搜索的速度。现在我正在尝试在训练数据上拟合一个rnn模型,这需要很长的时间。
浏览 0
提问于2019-03-08
得票数 2
回答已采纳
2
回答
在
GPU
上预先训练过的
Keras
模型是否可以仅用于CPU上的预测?
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
我目前正在学习
Keras
。我的问题是,如果我在一个像RTX泰坦这样的高端
GPU
上训练一个模型,我能否导出这个模型,将它加载到另一个低端机器上的一个新程序中,然后只
使用
CPU进行预测。这有可能吗?该模型是在高端
GPU
上训练的,一旦导出,它就可以加载到任何机器上,不管它是否有
GPU
,并且可以用来进行预测。 如果没有,那么机器学习模型是否部署在带有许多
GPU
的高端服务器上?
浏览 1
提问于2020-09-04
得票数 1
回答已采纳
1
回答
为什么我在
使用
multi_
gpu
_model的
Keras
中的训练速度比单独
使用
gpu
的速度要差?
python
、
tensorflow
、
keras
、
multi-gpu
我的
Keras
版本是2.0.9,并且
使用
tensorflow后端。CUDA_VISIBLE_DEVICES=0 python
gpu
_test.pypython
gpu
_tes
浏览 1
提问于2017-11-03
得票数 4
1
回答
"from tensorflow.python.
keras
.models import load_model“是否为您提供了
model.predict
功能?
tensorflow
、
keras
我刚刚成功地完成了一个tf.
keras
顺序模型的训练,并编写了一个单独的"Flask“脚本,将保存的模型加载到我上传到Heroku的应用程序中。一切都成功了。,所有的
model.predict
都工作了: preds = flask_model.predict(processed_features).flatten() 是什么允许我
运行
model.predict
在导入load_model时,
model.predict
()是否可用(在训练之后,我显然不必
使用
load_model来<
浏览 237
提问于2019-03-12
得票数 0
回答已采纳
2
回答
运行
python代码会消耗
GPU
。为什么?
python-3.x
import csvnp.random.seed(1)import tensorflow=0.2,random_state=0) with graph.as_default(): prediction =
model.predict
在
运行
此代码时,nvidia-smi -l 2显示它消耗了1.8GB的
GPU
。结果得到了100个文件
浏览 0
提问于2018-07-26
得票数 0
回答已采纳
1
回答
TypeError:“模块”对象不可调用。角化
python
、
tensorflow
、
keras
、
anaconda
、
conda
/cuDNN版本: 10 我是通过conda安装的。然后我试着
运行
以下代码:import
keras
y = np.array([-3, -1, 1, 3, 5, 7]) model.fit(x, y,
浏览 2
提问于2019-08-19
得票数 1
回答已采纳
7
回答
我能在
gpu
上
运行
Keras
模型吗?
python
、
tensorflow
、
keras
、
jupyter
我正在
运行
一个
Keras
模型,提交期限为36小时,如果我在cpu上训练我的模型将需要大约50小时,有办法在
gpu
上
运行
Keras
吗?我正在
使用
Tensorflow后端,并在我的木星笔记本上
运行
它,没有安装anaconda。
浏览 15
提问于2017-08-13
得票数 163
回答已采纳
2
回答
来自tfhub的BERT速度较慢且未
使用
GPU
python
、
tensorflow
、
keras
、
nlp
、
tensorflow2.0
遗憾的是,它的
运行
速度非常慢,根据Windows任务管理器的说法,它只
使用
了1-2%的
GPU
。import tensorflow_hub as hub input_word_ids = tf.
keras
.layers.Input(shape=(max_seq_length,), dtype=tf.
浏览 5
提问于2020-01-08
得票数 1
2
回答
keras
不
使用
gpu
,但tensorflow
使用
gpu
python
、
tensorflow
、
keras
、
gpu
、
cpu
Keras
没有
使用
我的
GPU
,尽管tensorflow似乎可以很好地
运行
它。除了速度和明显的CPU
使用
率之外,我不知道
如何
判断
Keras
是否在
使用
GPU
。 我还从tensorflow文档中
运行
了这个示例,在我的终端中,我可以清楚地看到它
使用
了
GPU
。它的
运行
速度比上面的
keras
示例快得多。import tensorflow #创建一个图形。打印
浏览 2
提问于2018-10-23
得票数 0
1
回答
为什么我的
keras
神经网络模型在不同的机器上输出不同的值?
amazon-ec2
、
keras
、
recurrent-neural-network
我
使用
aws ec2来训练一个多标签分类任务的模型.经过训练,我在同一台机器上测试了模型,取得了很好的效果(90+%的准确性)。但是,当我将保存的模型导入我的本地机器(没有
GPU
)后,它给出了不同的结果(准确率小于5%)。对为什么会发生这种事有什么建议吗?谢谢。TL;DR:
Keras
/tensorflow模型在将从
GPU
机器转换到CPU时产生不同的结果。
浏览 1
提问于2017-02-24
得票数 5
回答已采纳
1
回答
keras
和
keras
-
gpu
有什么区别?
tensorflow
、
keras
我正在设置我的计算机
使用
GPU
运行
DL,但是我找不到关于是否应该安装
keras
或
keras
-
gpu
的信息。目前,我
使用
tensorflow-
gpu
作为后端,在conda和
keras
上
运行
它。如果我将
keras
切换到
keras
-
gpu
,会有什么不同?
浏览 2
提问于2018-10-25
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在Docker Compose上使用GPU运行TensorFlow
如何使用Keras集成多个卷积网络并实现共同预测
如何使用JavaScript实现GPU加速神经网络
TensorFlow和Keras:初学者的简单示例教程
TensorFlow2.1正式版:最后一次支持Python2
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券