即使在引用合并的Keras1.2.2中,它也包含了多进程,但是由于磁盘读取速度的限制,model.fit_generator()
仍然比model.fit()
慢4-5倍。如何才能加快速度,比如说通过额外的多处理?
发布于 2017-08-07 04:38:58
您可能希望查看workers
和max_queue_size
参数的fit_generator()
中的文档。本质上,更多的workers
会创建更多的线程来将数据加载到将数据输入网络的队列中。不过,填充队列可能会导致内存问题,因此您可能希望减少max_queue_size
以避免这种情况。
发布于 2017-04-25 04:02:51
我也遇到了类似的问题,我转而使用dask将数据装入内存,而不是使用我使用熊猫的生成器。因此,如果可能的话,根据您的数据大小,将数据加载到内存中并使用fit函数。
https://stackoverflow.com/questions/42641824
复制相似问题