似乎有许多关于TensorFlow的使用的公开问题,还有一些tensorflow的开发人员在这里活跃于堆栈溢出。这是另一个问题。我希望在其他线程中使用numpy或不属于TensorFlow的内容生成正在运行的培训数据。但是,我不想一次又一次地重新编译整个TensorFlow源代码。我只是在等另一条路。"tf.py_func“似乎是一种解决办法。但是下面是我的MnWE (minmal-working示例):import numpy as npimport threading
im
我正在努力弄清楚如何并行处理一个有向无圈图。每个节点只有在其所有输入节点都已预先处理后才能“执行”。假设有一个具有以下接口的类Task: result = None ''' List all requirements of the task. ''' def run(self):除了一种方法之外,我想不出一种方法来处理这个结构可以异步表示的图形,同时使用最大数量的工作人
我有一个Python应用程序,其中客户机()通过WebSocket与服务器进行通信(我正在使用)。现在的问题是:整个应用程序运行在一个Raspberry Pi 3上。如果我不使用这4个核心,它只有一个,一个ARMv8内核,时钟为1.2 GHz。这对于OCR来说是很小的能量。所以我决定找出如何用Python来使用多个核心。我已经有了这样的想法:-不是使用队列的Python实现,而是使用I/O,例如,不同的子进程将访问一个专用的Redis --更进一步:将每个队列工作者作为一个单独