腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
无法
使用
GPU
拟合
使用
Keras
的
模型
、
、
我
使用
的
是windows10操作系统,在Jupyter笔记本上
使用
的
是Tensorflow
gpu
版本。name='/physical_device:XLA_CPU:0', device_type='XLA_CPU'), PhysicalDevice(name='/physical_device:XLA_
GPU
:0', device_type='XLA_
GPU
')] 和,
浏览 49
提问于2020-12-03
得票数 0
回答已采纳
1
回答
我需要修改我
的
keras
代码才能在
gpu
上高效运行吗?
、
、
、
我有cuda8.0.61,tensorflow_
gpu
版本和
keras
。我在224*224图像数据上训练一个20层
的
keras
模型
当我在终端上运行nvidia -smi时,我发现内存正在耗尽,并且计算util
的
百分比更小。当我尝试
拟合
模型
时,机器变得非常慢。我知道,为了
使用
gpu
并在设备之间切换,我应该
使用
以下代码: with K.tf.device('/
gpu
浏览 18
提问于2019-02-08
得票数 1
1
回答
Tensorflow中有没有等同于torchsummary
的
东西?
、
、
、
我
使用
GPU
在一个大小为55 on
的
数据集上运行一些非常大
的
深度学习
模型
。如果我
使用
一个大于1
的
批处理大小,我会得到一个资源耗尽错误。即使批处理大小为1,我也会得到分割错误。
GPU
内存为10 of,服务器具有32 of
的
RAM。 有没有办法让我知道
GPU
中
的
数据量(批处理大小为1)会有多大?我正在
使用
tf.
Keras
来
拟合
模型
。
浏览 32
提问于2021-08-10
得票数 0
1
回答
如何向TensorFlow神经网络添加额外
的
层?
如何在TensorFlow神经网络中添加额外
的
层,并且知道附加层不会过分适合?似乎2层不会很有帮助,但它确实给了我91%
的
准确性,我想100%
的
准确性。因此,我想增加5到10个额外
的
层,并尝试和“过度适合”
的
神经网络。一个超适
的
训练集是否总能提供100%
的
准确性?model = tf.
keras
.Sequential([
浏览 6
提问于2022-05-29
得票数 0
1
回答
该
模型
不适用于withTensorflow和
Keras
误差
、
、
、
我
使用
tensorflow-
gpu
2.4.0安装了cuda 11.0和cudnn8.0。当我
拟合
模型
时,我得到了这个错误。-397fbbe99754>:1) ]] [Op:__inference_train_function_1671] train_function 我试图安装
keras
-
gpu
浏览 22
提问于2021-02-04
得票数 0
3
回答
Apache mod_wsgi django调用
keras
模型
时,如何释放占用
的
GPU
内存?
、
、
、
我
的
服务器配置如下: 通过
使用
Django框架和apache服务器,我们调用
Keras
深度学习
模型
。和
模型
调用成功后,
模型
一直运行在
GPU
内存中,除非关闭服务器,否则
无法
释放
GPU
内存。那么,在通过Apache+Mod_wsgi+Django调用
Keras
模型
时是否有任何方法来控制
GPU
内存
的</em
浏览 17
提问于2017-05-12
得票数 15
回答已采纳
1
回答
执行
keras
CNN
模型
时,我
的
计算机一直在崩溃
、
、
、
在网上
使用
各种博客,我试图测试他们
的
代码,看看他们是如何工作
的
。对于
keras
,我不知道为什么,但每次我运行一个
模型
函数时,它总是崩溃。如果我没有提供足够
的
信息,我很抱歉。我正在运行AMD
GPU
和CPU示例代码部分 train_generator, steps_per_epoch = 100
浏览 2
提问于2019-10-31
得票数 1
1
回答
TensorFlow/
Keras
多线程
模型
拟合
、
、
、
、
我正在尝试
使用
多个线程(和tensorflow后端)训练具有不同参数值
的
多个
keras
模型
。我见过一些在多个线程中
使用
相同
模型
的
例子,但是在这个特殊
的
例子中,我遇到了关于冲突图
的
各种错误,等等。下面是我希望能够做到
的
一个简单例子:import numpy as npfr
浏览 12
提问于2017-02-19
得票数 27
回答已采纳
2
回答
连续
拟合
多个
Keras
模型
导致
GPU
OOM
、
、
我想在相同
的
数据上连续
拟合
和保存三个
模型
( NIH-Chest - )。尽管我可以单独做这件事,但我想知道我是否可以从列表中做这件事(参见下面的代码)。然而,在这一点上,这会导致
GPU
内存饱和,从而导致OOM错误。这是由于数据集没有从
GPU
内存中刷新,并试图在第二次和第三次
拟合
时重新加载它。所有与清除图形处理器内存相关
的
解决方案都涉及关闭Cuda或重启
Keras
或kernel...which,因为它们适合被擦除(这并不奇怪)。我想知道,有没有可能从列表
浏览 32
提问于2020-05-04
得票数 1
回答已采纳
1
回答
ResourceExhaustedError:当分配形状为[32,32,239,239]和类型为float
的
张量时,OOM
、
、
、
我正在尝试
使用
不同
的
图像从this paper(model 1)重建CNN图像识别
模型
。但是,
拟合
模型
会在第一个时期返回一个ResourceExhaustedError。批处理大小已经相当小了,所以我猜问题出在我从论文中复制
的
模型
定义上。任何关于
模型
更改
的
建议都将不胜感激。谢谢!([ tf.
keras
.layers.experimental.preprocessing.RandomFlip('hor
浏览 31
提问于2021-11-22
得票数 0
回答已采纳
1
回答
如何清除Tensorflow-
Keras
GPU
内存?
、
、
、
我是
拟合
一个
模型
在一个for循环,但我得到一个错误,我
的
GPU
的
内存是满
的
。我在Anaconda Spyder IDE中
使用
Keras
。我
的
GPU
是华硕GTX 1060 6gb。我也
使用
过一些代码,比如:K.clear_session()、gc.collect()、tf.reset_default_graph()、del custom_model,但它们都没有用。
GPU
属性表示98
浏览 0
提问于2019-04-02
得票数 5
回答已采纳
3
回答
无法
使用
tensorflowjs转换器创建
的
模型
、
我正在尝试重用tensorflow创建
的
tensorflowjs
模型
。为了理解转换器是如何工作
的
,我尝试转换mobilenetv2
模型
: tensorflowjs_converter --input_format=tf_hub --output_format=tensorflowjs然后,我尝试通过更改
模型
的
加载方式在mobilenet demo中
使用
这个新
的
转换后
的
模型
: // const mo
浏览 39
提问于2019-09-13
得票数 0
1
回答
以
keras
和tensorflow为后端在aws sagemaker中配置
GPU
、
、
我是aws酿酒师
的
新手。我正试图在aws中建立一个
模型
,
使用
带有
GPU
支持
的
keras
。下面给出了用于推断
模型
的
码头底图。这是我用来检查
GPU
是否被烧瓶中
的
keras
识别的
keras
代码。get_available_gpus() return flask.Response(response='\n', status=200,mimetype='
浏览 0
提问于2018-12-11
得票数 4
回答已采纳
3
回答
我如何让
Keras
在特定
的
GPU
上训练一个
模型
?
、
、
、
在我
的
机构中有一个有2个
GPU
的
共享服务器。假设有两个团队成员希望同时训练一个
模型
,那么他们如何让
Keras
在特定
的
GPU
上训练他们
的
模型
,以避免资源冲突?理想情况下,
Keras
应该知道哪个
GPU
目前正忙于训练一个
模型
,然后
使用
其他
GPU
来训练另一个
模型
。然而,情况似乎并非如此。默认情况下,
Keras
似乎只<e
浏览 0
提问于2018-11-29
得票数 4
回答已采纳
3
回答
角星预测很慢
、
、
、
我正在研究一个强化学习任务,并决定
使用
keras
神经网络
模型
进行Q值近似。这种方法是常见
的
:在每个动作之后,奖励被存储在一个内存回放数组中,然后我从它中随机抽取样本,然后用新
的
数据state-action => reward+predicted_Q(更详细
的
)来
拟合
模型
。为了进行训练,必须对训练集中
的
每个项目进行Q值
的
预测。 脚本运行得非常慢,所以我开始调查。分析表明,_predict_loop方法占用累积时间
浏览 3
提问于2016-06-25
得票数 7
1
回答
Tensorflow
GPU
-设备互连,流执行器与强度1边矩阵?
、
、
我有一个带有4个Nvidia K80
GPU
的
盒子。我正在运行Tensorflow 2。当我运行一个培训会话(tf.
keras
=> model.fit())时,我会看到以下日志语句:问题: 网格
的
意义是什么,我可以利用它多少?就其价值而言,我
的
模型
如下所示,我
无法
让
浏览 2
提问于2020-06-14
得票数 1
回答已采纳
2
回答
如何在
Keras
中创建
模型
并
使用
Tensorflow进行培训?
、
、
、
是否可以
使用
Keras
创建
模型
,而不
使用
Keras
中
的
编译和
拟合
函数,
使用
Tensorflow来训练
模型
?
浏览 1
提问于2018-02-22
得票数 1
回答已采纳
3
回答
在一行中训练多个序列
模型
的
速度减慢
、
、
我正在
使用
Keras
/TensorFlow (
GPU
)创建一个时间序列预测
模型
。我有100倍
的
时间序列,并希望为他们每一个训练一个网络。连续运行几个时间序列是可以
的
,但是一旦我运行了100倍或1000倍,那么似乎每个
模型
的
训练时间增长缓慢(但确实如此)。有什么简单
的
原因吗? 下面是再现问题
的
代码(请注意,运行可能需要一段时间)。在我
的
机器上,第一次迭代需要10次,迭代#250需要16次,迭
浏览 5
提问于2017-03-13
得票数 4
回答已采纳
3
回答
跨多个
GPU
分发
Keras
模型
、
、
我正在尝试创建一个非常大
的
Keras
模型
,并将其分布在多个
GPU
上。需要说明
的
是,我并不是想把同一
模型
的
多个副本放在多个
GPU
上;我是想把一个大
模型
放在多个
GPU
上。我一直在
使用
Keras
中
的
multi_
gpu
_model函数,但基于我在执行此操作时遇到
的
大量内存不足错误,它似乎只是复制了
模型
,而不是像我希望<
浏览 48
提问于2019-02-06
得票数 0
回答已采纳
1
回答
keras
模型
中图像列表中
的
TensorFlow数据集
、
、
我试图了解如何读取本地图像,如何将它们用作TensorFlow ,并
使用
TF数据集训练
Keras
模型
。我跟踪TPU 。唯一不同
的
是,我想阅读我
的
一组图像,并对它们进行培训。
模型
trained_model。但此时,代码会出现以下错误:错误来自
keras
,它对给定
的
输入执行这样
的</e
浏览 1
提问于2019-02-28
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Keras构建血细胞分类模型
使用Java部署训练好的Keras深度学习模型
教程帖,使用TensorFlow服务和Flask部署Keras模型!
机器学习项目:使用Keras和tfjs构建血细胞分类模型
苹果使用谷歌芯片训练AI模型 未采用NVIDIA GPU
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券