我使用这个ruby脚本来管理进程。que不支持多进程,请参考讨论):
#!/usr/bin/env ruby
cluster_size = 2
puts "starting Que cluster with #{cluster_size} workers"; STDOUT.flush
%w[INT TERM].each do |signal|
trap(signal) do
@pids.each{|pid| Process.kill(signal, pid) }
end
end
@pids = []
cluster_size.to_i.times
我有一个while循环,它通过将子进程的stdout重定向到父进程,从而使用阻塞I/O从子进程读取数据。通常,子进程一退出,在这种情况下阻塞的read()就会返回,因为被读取的管道由子进程关闭。
现在,我有一种情况,即对于已完成的子进程,read()调用不会退出。子进程以僵尸状态结束,因为操作系统正在等待我的代码获得它,但是我的代码却阻塞了read()调用。
子进程本身在挂起时没有运行任何子进程,我在查看/proc/<child process PID>/fd时没有看到列出的任何文件描述符。然而,子进程确实分出了两个守护进程,其目的似乎是监视子进程(子进程是一个专有的应用程序,我没
在我看来,在Python中,没有必要收获僵尸进程。
例如,在下面的代码中
import multiprocessing
import time
def func(msg):
time.sleep(2)
print "done " + str(msg)
if __name__ == "__main__":
for i in range(10):
p = multiprocessing.Process(target=func, args=('3'