我有一个train.py文件,通过tensorflow.keras训练神经网络模型,最好的模型将根据train_loss保存为best_train.h5。培训时间约为7天。 我有另一个文件test.py来测试在运行train.py期间保存的模型。在test.py模型中,我每小时加载一次best_train.h5以查看测试性能。代码如下: for i in range(7*24):
time.sleep(1*60*60)
model = tf.keras.models.load_model('best_train.h5')
model.predict(test_da
我在做什么
我正在训练和使用卷积神经元网络(CNN)进行图像分类,使用Tensorflow-gpu作为后端的Keras。
我正在使用的
PyCharm社区2018.1.2
Python2.7和3.5 (但不是一次都是)
Ubuntu 16.04
Keras 2.2.0
Tensorflow-GPU 1.8.0作为后端
我想知道的
在许多代码中,我看到人们使用
from keras import backend as K
# Do some code, e.g. train and save model
K.clear_session()
或在使用后删除模型:
我正在编写一个代码,它使用cuSparse在GPU上执行数千个稀疏矩阵的计算。由于内存在GPU上是有限的,我需要一个一个地处理它们,因为其余的内存被其他GPU变量和密集矩阵占用。
我的工作流程(以伪代码表示)如下:
for (i=0;i<1000;i++){
//allocate sparse matrix using cudaMalloc
//copy sparse matrix from host using cudaMemcpy
//do calculation by calling cuSparse
//deallocate sparse matrix with cudaFree
我的代码在iPython终端中运行正常,但由于内存不足错误而失败,如下所示。
/home/abigail/anaconda3/envs/tf_gpuenv/bin/python -Xms1280m -Xmx4g /home/abigail/PycharmProjects/MLNN/src/test.py
Using TensorFlow backend.
Epoch 1/150
2019-01-19 22:12:39.539156: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructio
我在Windows 10上的GTX 1070上运行keras神经网络训练和预测。大多数情况下,它是有效的,但偶尔也会出现问题
E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\cuda\cuda_dnn.cc:359] could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZED
E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\window
当我运行这个命令时:
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
我收到这张日志:
2017-06-16 11:29:42.305931: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.1 instructions, but these are available on your machine and could speed up CP