然后,我使用tf.convert_to_tensor函数将它们转换为张量我想从这个张量中获得一个大小为32的批量,其中包含5000张图像的数据,这些批量将在每次迭代中随机混洗To iterate over this tensor use tf.map_fn.`
如何获得一批大小为32的图像数据,这些数据将在每次迭代中随机混洗?
我正在使用tensorflow (TF1.14和TF2.0)中的tf.data.experimental.make_csv_dataset来读取一个包含3列的csv文件:索引、column1和column2在此数据集上,当我使用tf.data.shuffle(buffer_size = some_number)进行混洗时,使用消息Filling Up the shuffle buffer进行混洗需要花费大量时间我的问题是,是否有一种方法可以通过使用列1/列2的索引来混洗