在模型的训练过程中,我已经使用了shuffle my dataset,如文档示例: (但无法将其全部混洗,因为它会占用太多内存),我还将我的数据集分成多个小碎片,每个碎片大小相等。然而,我有理由认为这种“近似”的混洗是不够的,我还认为馈送已经混洗的数据将提高训练速度。所以现在我的问题是:在我将我的数据集分成Tfrecords分片后,是否有可能高效地编写随机获取2个分片的代码,加载它们,对它们进行<e
对我来说,只有第1列和column2是重要的。column1中的每个元素都是一个形状为(1,4)的数组,而column2的形状为(1,1)。在此数据集上,当我使用tf.data.shuffle(buffer_size = some_number)进行混洗时,使用消息Filling Up the shuffle buffer进行混洗需要花费大量时间我的问题是,是否有一种方法可以通过使用列1/列2的索引来混洗<