腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5926)
视频
沙龙
1
回答
Tensorflow
训练
崩溃
超过
系统
内存
的
10
%,
尽管
训练
批
大小
为
1
python
、
tensorflow
、
gpu
批处理
大小
为
128/64/32
的
训练
用于在几个时期后简单地清空GPU
内存
。然而,运行随机批处理
训练
实际上会使程序停留在第一个时期
的
0%。--------------- Epoch
1
--------------- 0%|
tensorflow
\
tensorflow
\core\framework\allocator.cc:108] Allocation of 1207959552 exceeds
浏览 351
提问于2019-06-19
得票数 0
1
回答
Rnn预测率受批量
大小
的
影响?
tensorflow
、
rnn
我正在使用
Tensorflow
RNN来预测一系列序列。我使用Grucell和dynamic_rnn。在
训练
时,我输入
训练
数据集,我将其分成8
批
,每批
的
批
大小
为
10
(
1
批
的
形状
为
[
10
, 6, 2],即[batchsize, seqlen, dim])。为了防止过拟合,当
训练
数据集中
的
预测率开始
超过<
浏览 6
提问于2018-02-04
得票数 0
1
回答
Tensorflow
内存
不足
tensorflow
、
deep-learning
我正在使用
tensorflow
构建基于CNN
的
文本分类。有些数据集很大,有些数据集很小。我
的
问题是:网络是批量
训练
的
,每批代码都从
系统
内存</em
浏览 1
提问于2016-06-10
得票数 2
4
回答
使用整个MNIST数据集(60000张图像)
训练
tensorflow
所需
的
迭代次数?
python
、
tensorflow
、
mnist
MNIST集由用于
训练
集
的
60,000幅图像组成。在
训练
我
的
Tensorflow
的
时候,我想运行
训练
步骤来
训练
整个
训练
集
的
模型。
Tensorflow
网站上
的
深度学习示例使用了20,000次迭代,批处理
大小
为
50次(共计
1
,000,000
批
)。当我尝试
超过
30,000次迭代时,我
的</e
浏览 8
提问于2016-08-11
得票数 5
回答已采纳
2
回答
为什么
Tensorflow
CNN使用太多
内存
?
machine-learning
、
tensorflow
、
deep-learning
、
convolution
、
data-science
我是深度学习
的
新手,我正在使用
Tensorflow
训练
cnn进行图像识别。
训练
图像都是128像素* 128像素*3通道。在我
的
网络中,有3个卷积层,3个最大池层和
1
个完全连接层。我有
超过
18万张带标签
的
图像,所以我决定每批
训练
4000张图像。然而,
训练
过程甚至不能在我
的
笔记本电脑上运行,因为
内存
不足,所以我尝试使用64 it
内存
和2* E5 CPU
的</e
浏览 1
提问于2017-09-11
得票数 0
9
回答
Tensorflow
分配
内存
: 38535168
的
分配
超过
系统
内存
的
10
%
python
、
tensorflow
、
memory
、
keras-layer
、
resnet
使用ResNet50预先
训练
的
权重,我正在尝试构建一个分类器。代码库在Keras高级
Tensorflow
API中完全实现.完整
的
代码发布在下面的GitHub链接中。源代码:
1
/
1
2018-05-12 13:04:45.847298: W/core/framework/allocator.cc:101]分
浏览 3
提问于2018-05-12
得票数 57
回答已采纳
1
回答
Tensorflow
对象检测API GPU
内存
问题
gpu
、
object-detection-api
、
tensorflow2.x
operation using StreamExecutor without BLAS support对于internet /堆栈溢出中
的
这个特定错误
的
解决方案提到,这个问题可以解决,允许动态
内存
增长。
系统
信息: Ryzen
浏览 3
提问于2021-03-10
得票数 0
回答已采纳
0
回答
如何读取一个hdf5数据文件中
的
批次进行
训练
?
python
、
tensorflow
、
deep-learning
我有一个
大小
为
(21760,
1
, 33, 33)
的
hdf5
训练
数据集。21760是
训练
样本
的
整数。我想使用
大小
为
128
的
小批量
训练
数据来
训练
网络。我想问一下: 如何使用
tensorflow
每次从整个数据集中提供128小
批
量
训练
数据?
浏览 6
提问于2016-07-06
得票数 6
回答已采纳
1
回答
培训所需
的
时间在不同
的
批次
大小
之间有什么不同?
deep-learning
、
neural-network
、
cnn
、
convolutional-neural-network
、
numpy
我已经用Numpy在Python中构建了一个CNN,它是用小批量梯度下降
训练
的
,用于MNIST数字分类。当
训练
批量
为
1
时,5次
训练
所需时间约为1200次s,仅比16 ~ 256次间歇
训练
慢40%左右。第4
批
和第8
批
分别需要940名S和890 S。当我
训练
它
超过
5个周期,批号为16,32或256,时间大约是850 S(这三种
大小
大致相同)。我期望更大
的
批号缩短时间,
浏览 0
提问于2021-03-15
得票数 1
1
回答
转移学习入门V3 :继续
训练
,如果准确性波动?
tensorflow
、
deep-learning
、
training-data
我仍在使用
tensorflow
上
的
Inception V3进行传输学习。这是我使用Tensorboard
训练
的
截图。基础
训练
源代码:0.001学习率正如你所看到
的
,
训练
的
准
浏览 1
提问于2019-01-30
得票数 0
1
回答
最小化GPU在使用
TensorFlow
时
的
空闲时间
tensorflow
当使用
Tensorflow
训练
网络时,我们如何减少GPU
的
空闲时间?要这样做:- 我认为直接从t
浏览 2
提问于2017-04-19
得票数 2
2
回答
如何判断我
的
神经网络是否由于
内存
错误而
崩溃
?
tensorflow
、
deep-learning
、
keras
我正试图围绕一台笔记本电脑
训练
神经网络
的
能力来校准我
的
期望。我正在使用
tensorflow
和keras,大约
10
分钟后,它
崩溃
了。这只是试图在神经网络运行之前将输出转换为神经网络所期望
的
。我有6400个输入和1500个输出,还有一个100个节点
的
小隐藏层。批量
大小
为
128。就这样。它甚至都不深。无论是使用nvidia gpu还是使用4核cpu,它都会
崩溃
。对于专业人士来说,我
的
网络
浏览 3
提问于2017-05-03
得票数 2
2
回答
将输入
训练
为
具有
Tensorflow
/ Keras矩阵滑动窗口和
内存
问题
的
神经网络
python
、
tensorflow
、
keras
、
rolling-computation
、
sliding-window
我有一个数据集,它是一个很大
的
形状矩阵(100000,2000)。 W
tensorflow
/核心/框架/分配器. of :122]分配.
超过
系统
内存
的
10
%。问题:如何在100 kx2k矩阵上
训练
输入<
浏览 4
提问于2021-06-22
得票数 1
回答已采纳
1
回答
在
Tensorflow
中利用IoU模型对Pascal数据进行非常低
的
语义分割
tensorflow
、
semantic-segmentation
我试图在
TensorFlow
中
为
Pascal数据集上
的
语义分段
训练
一个模型,而且在验证集上,我不能获得
超过
0.3分
的
IoU分数。我
的
实现类似于。我使用了
10
批
大小
的
SGD和momentum=0.9,并运行在GPU上进行分布式培训,但使用静态学习速率
为
0.003,而不像最初
的
deeplabv3论文所建议
的
那样进行
批
归一化衰减。我知
浏览 2
提问于2022-02-05
得票数 0
1
回答
Tensorflow
2.0.1
训练
冻结
系统
tensorflow
、
gpu
、
tensorflow2.0
我正在用
tensorflow
2.0.1
的
gradienttape()
训练
一个GAN。培训持续到2000/2562
批
次,并冻结了
系统
。我甚至将gpu
内存
限制为8GB: # Restrict
TensorFlow
to only allocate
1
GB of memory on the first GPU trytf.config.experimental.set_virtual_device_configurati
浏览 3
提问于2020-02-26
得票数 1
1
回答
对于这个简单
的
数据集,
TensorFlow
的
dynamic_rnn
的
参数是什么?
tensorflow
、
recurrent-neural-network
我想用
TensorFlow
训练
一个RNN语言模型。 x = [0,
1
, 2, 3, 4] 0 -> [0, 0 ,0]
1
-> [
10
,
10</e
浏览 0
提问于2016-07-21
得票数 0
3
回答
在
TensorFlow
中使用共享图形处理器
内存
?
tensorflow
、
shared-memory
、
vram
因此,我在一台装有GeForce GTX 980显卡
的
Windows
10
机器上安装了
TensorFlow
的
图形处理器版本。诚然,我对显卡知之甚少,但根据dxdiag
的
说法,它确实有:共享
内存
的
8163MB 总计约为12224MB。然而,我注意到
的
是,这种“共享”
的
记忆似乎几乎毫无用处。当我开始
训练
一个模型时,VRAM将被填满,如果
内存
需求<
浏览 2
提问于2017-12-18
得票数 33
回答已采纳
1
回答
内存
错误。GPU上
的
进程使用CPU/
系统
内存
python
、
tensorflow
、
gpu
在将
tensorflow
图像更新到过去
训练
的
22.01-tf2-py3,模型之后,现在给我一个
内存
错误。
Tensorflow
似乎使用
的
是
系统
内存
,而不是GPU,程序初始化后停止。在进行了一些研究之后,我发现问题在于在运行GPU时
为
该进程分配
的
CPU/
系统
内存
。另外,GPU上
的
tf进程比数据集
的
大小
占用更多<e
浏览 5
提问于2022-02-28
得票数 -1
1
回答
修正
训练
后丹森流模型
的
批量
python
、
tensorflow
、
tensorflow-lite
、
quantization
、
batchsize
我正在使用可变批次
大小
(输入: None,320,240,3)在
Tensorflow
中
训练
一个模型。问题是在
训练
后
的
量化过程中,我不能有任何动态输入,因此没有“无”,而使用edgetpu编译器时,
批
大小
不能大于
1
。 我目前
的
方法是再
训练
一次,固定
的
批次
为
1
,但这有点乏味。是否可以将投入从零、320、240、3改为
1
,320、240、3或320、2
浏览 5
提问于2021-10-12
得票数 2
3
回答
CUDA_ERROR_OUT_OF_MEMORY:
内存
不足。如何增加批号?
deep-learning
、
gpu
我有一个GPU: GTX 1050和~4GB
内存
。 我尝试用192x192pix和batch=7蒙面RCNN。
浏览 0
提问于2019-03-11
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
绕开算力限制,如何用单GPU微调 LLM?这是一份“梯度累积”算法教程
前端工程师掌握这18招,就能在浏览器里玩转深度学习
IBM全新机器学习库SnapML:训练提速46倍,40亿样本仅需91.5秒
何恺明团队最新力作:群组归一化
一步实现从TF到TF Lite,谷歌提出定制on-device模型框架
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券