在使用管道的en_core_web_trf模型时存在内存泄漏,我使用GPU和16 GPU内存运行该模型,下面是一个代码示例。
!python -m spacy download en_core_web_trf
import en_core_web_trf
nlp = en_core_web_trf.load()
#it's just an array of 100K sentences.
data = dataload()
for index, review in enumerate( nlp.pipe(data, batch_size=100) ):
#doing so
我创建了一个tensorflow模型,它具有相对常见的操作(除了一对tf.where和索引处理),但是使用非常不同的输入形状(模型中的许多未定义的张量形状)调用它。
CPU上的一切都很好。--但是当你使用GPU时,内存的使用量(不是GPU内存,CPU内存)稳步增加,填补了256 up的内存,并杀死了自己。
在此过程中,我收到了通常的信息:
2017-03-17 16:42:22.366601: I tensorflow/core/common_runtime/gpu/pool_allocator.cc:247] PoolAllocator: After 18347 get requests,
我在Windows 10上的GTX 1070上运行keras神经网络训练和预测。大多数情况下,它是有效的,但偶尔也会出现问题
E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\cuda\cuda_dnn.cc:359] could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZED
E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\window
我正在使用google colab。在使用EfficientNetB3时,我得到以下错误
Resource exhausted: OOM when allocating tensor with shape[15,95,95,192] and type float
我理解这一点是因为我的数据不适合GPU。但是当我尝试InceptionResNetV2时,我没有得到任何错误。
EfficientNetB3中可训练的参数个数为22,220,824
InceptionResNetV2中可训练的参数个数为109,380,744
InceptionResNetV2中可训练参数的数量比EfficientNe
我有一个LSTM模型,我想训练多个gpus。我对代码进行了转换,在nvidia-smi中,我可以看到它正在使用所有gpu的所有内存,每个gpu都在使用大约40%的内存,但每批培训的估计时间几乎与1个gpu相同。
有人能引导我,告诉我如何在多个gpus上进行适当的训练吗?
我的代码:
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
from tensorflow.keras.layers import LSTM
fro