我正在使用TFrecords和keras拟合神经网络模型。我有一个相对较大的数据集,它是非常异构的。在模型的训练过程中,我已经使用了shuffle my dataset,如文档示例: (但无法将其全部混洗,因为它会占用太多内存),我还将我的数据集分成多个小碎片,每个碎片大小相等。然而,我有理由认为这种“近似”的混洗是不够的,我还认为馈送已经混洗的数据将提高训练速度。所以现在我的问题是:在我将我的数据集分成Tfreco
我正在亲手使用TensorFlow 2.0来训练我的模型。tf.data应用编程接口中的新迭代功能非常棒。但是,当我执行以下代码时,我发现,与torch.utils.data.DataLoader中的迭代特性不同,它不会在每个时期自动混洗数据。我如何使用TF2.0实现这一点?import numpy as npdef sample_data(): bat