我们正在Tensorflow上运行多个GPU作业,并评估从基于队列的模型(使用string_input_producer接口)到新的Tensorflow Dataset API的迁移。get_dataset(val_files, batch_size, epochs)
next_batchgpu_', i)) as scope:
if i
因此,我在中使用了zip函数。每个样本都由一个框架及其特征集组成。因此,我需要从每个tfrecord文件中提取8个样本,这将在一个批处理中总共获得72 (features, image)。问题:当我到达第一个时代结束时,剩下的数据小于72。因此,从第二个时代的数据作为补充,构成了一批72个样本。因此,我没有使用repeat函数,而是尝试在处理多个时期(即使用带try和with的循环)时实现中提到的内容。首先,这是我的完整代码:import numpy as
) # defined class to returns a tf iterator next_batch = dataset_iterator.get_next()
img, label = sess.run(next_batch)
# some process on label当我试图将dataset_iterator作为参数发送到generator方法时,问题就开始了
我正在用TensorFlow编写一个训练脚本来对两种不同类型的图像进行分类。下面是创建数据集对象的类,该对象用于生成批处理和递增时期。在第一个时期完成之前,它工作得很好。然后,它在next_batch方法中的self._images = self._images[perm]行失败。这对我来说没有任何意义,因为Python不应该复制self._epochs_completed """Return the next `