我正试着用达斯克来训练一个毫升模型。我正在用1台GPU在本地机器上训练。我的GPU有24块内存。/include/rmm/mr/device/pool_memory_resource.hpp:192: Maximum pool size exceeded
基本上,当我调用model.fit时,我的GPU内存就用完了。当我使用有64100行的csv时,
我有cuda8.0.61,tensorflow_gpu版本和keras。我在224*224图像数据上训练一个20层的keras模型当我在终端上运行nvidia -smi时,我发现内存正在耗尽,并且计算util的百分比更小。当我尝试拟合模型时,机器变得非常慢。我知道,为了使用gpu并在设备之间切换,我应该使用以下代码: with K.tf.device('/gpu:0')
目前,我使用默认的64作为seq2seq tensorflow模型的批处理大小。什么是最大批量大小,层大小等我可以去与一个12 GB内存的泰坦X GPU与哈斯韦尔-E至强128 GB内存。下面是我正在使用的一些有用的参数,单元格输入大小似乎是1024:
encoder_inputs: a list of 2D Tensors [batch_size x cell.input_size].tf.app.flags.DE