任务数多余cpu核数
,通过操作系统的各种任务调度算法,实现用多个任务“一起”执行(实际上总有一些任务不在执行,因为切换任务的速度相当快,看上去一起执行而已)任务数小于等于cpu核数
,即任务真的是一起执行的
multiprocessing
模块就是跨平台版本的多进程模块,提供了一个Process
类来代表一个进程对象,这个对象可以理解为是一个独立的进程,可以执行另外的事情
from multiprocessing import Process
import os
# 子进程要执行的代码
def run_proc(name):
print('启动子进程{}{}'.format(name, os.getpid()))
if __name__ == '__main__':
print('父进程{}'.format(os.getpid()))
p = Process(target=run_proc, args=('test',))
print('子进程将要启动')
p.start()
p.join()
print('子进程结束')
from multiprocessing import Process
import os
import time
def run_proc():
"""子进程要执行的代码"""
print('子进程运行中,pid=%d...' % os.getpid()) # os.getpid获取当前进程的进程号
print('子进程将要结束...')
if __name__ == '__main__':
print('父进程pid: %d' % os.getpid()) # os.getpid获取当前进程的进程号
p = Process(target=run_proc)
p.start()
>>> 父进程pid: 3580
>>> 子进程运行中,pid=3581...
>>> 子进程将要结束...
Process([group [, target [, name [, args [, kwargs]]]]])
元组的方式
传递(常用)Process创建的实例对象的常用方法:
Process创建的实例对象的常用属性:
Process-N
,N为从1开始递增的整数from multiprocessing import Process
import os
from time import sleep
def run_proc(name, age, **kwargs):
for i in range(10):
print('子进程运行中,name= %s,age=%d ,pid=%d...' % (name, age, os.getpid()))
print(kwargs)
sleep(0.2)
if __name__=='__main__':
p = Process(target=run_proc, args=('test',18), kwargs={"m":20})
p.start()
sleep(1) # 1秒中之后,立即结束子进程
p.terminate()
p.join()
>>> 子进程运行中,name= test,age=18 ,pid=3593...
>>> {'m': 20}
>>> 子进程运行中,name= test,age=18 ,pid=3593...
>>> {'m': 20}
>>> 子进程运行中,name= test,age=18 ,pid=3593...
>>> {'m': 20}
>>> 子进程运行中,name= test,age=18 ,pid=3593...
>>> {'m': 20}
>>> 子进程运行中,name= test,age=18 ,pid=3593...
>>> {'m': 20}
如果两个进程之间需要通信,则需要用到Queue
类,相当于队列
q = Queue()
括号中可以指定最大可接受的消息数量,若不指定,则默认代表消息数量没有上限
Queue有多个方法,下面介绍几个常用的方法
返回当前队列包含的消息数量;
判断队列是否为空,如果队列为空,返回True,反之False
判断队列是否满了,如果队列满了,返回True,反之False
获取队列中的一条消息,然后将其从列队中移除,block默认值为True;
block=True的情况
如果block=True,且没有设置timeout
(单位秒),消息列队如果为空,此时程序将被阻塞(停在读取状态),直到从消息列队读到消息为止
如果设置了timeout
,则会等待timeout
秒,若还没读取到任何消息,则抛出Queue.Empty
异常;
block=False的情况
如果block=False
,消息列队如果为空,则会立刻抛出Queue.Empty
异常;
相当Queue.get(False)
将item消息写入队列,block默认值为True
block=True的情况
如果block=True
,且没有设置timeout(单位秒),消息列队如果已经没有空间可写入,此时程序将被阻塞(停在写入状态),直到从消息列队腾出空间为止
如果设置了timeout
,则会等待timeout
秒,若还没空间,则抛出Queue.Full
异常;
block=False的情况
如果block=False
,消息列队如果没有空间可写入,则会立刻抛出Queue.Full
异常;
相当Queue.put(item, False)
我们以Queue为例,在父进程中创建两个子进程,一个往Queue里写数据,一个从Queue里读数据:
from multiprocessing import Process, Queue
import os, time, random
# 写数据进程执行的代码:
def write(q):
print('Process to write: %s' % os.getpid())
for value in ['A', 'B', 'C']:
print('Put %s to queue...' % value)
q.put(value)
time.sleep(random.random())
# 读数据进程执行的代码:
def read(q):
print('Process to read: %s' % os.getpid())
while True:
value = q.get(True)
print('Get %s from queue.' % value)
if __name__ == '__main__':
# 父进程创建Queue,并传给各个子进程:
q = Queue()
pw = Process(target=write, args=(q,))
pr = Process(target=read, args=(q,))
# 启动子进程pw,写入:
pw.start()
# 启动子进程pr,读取:
pr.start()
# 等待pw结束:
pw.join()
# pr进程里是死循环,无法等待其结束,只能强行终止:
pr.terminate()
当需要创建的子进程数量不多时,可以直接利用multiprocessing
中的Process
动态成生多个进程,但如果是上百甚至上千个目标,手动的去创建进程的工作量巨大,此时就可以用到multiprocessing
模块提供的Pool
方法。
初始化Pool时,可以指定一个最大进程数,当有新的请求提交到Pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到指定的最大值
,那么该请求就会等待
,直到池中有进程结束,才会用之前的进程来执行新的任务,请看下面的实例:
"""
如果要启动大量的子进程,可以用进程池的方式批量创建子进程:
"""
from multiprocessing import Pool
import os, time, random
def long_time_task(name):
print('运行任务 %s (%s)...' % (name, os.getpid()))
start = time.time()
time.sleep(random.random() * 3)
end = time.time()
print('任务 %s 运行 %0.2f 秒' % (name, (end - start)))
if __name__ == '__main__':
print('父进程 %s.' % os.getpid())
p = Pool(4) # 创建进程池中最多存4个子进程
for i in range(5):
# Pool().apply_async(要调用的目标,(传递给目标的参数元祖,))
# 每次循环将会用空闲出来的子进程去调用目标
p.apply_async(long_time_task, args=(i,))
print('等待所有子进程完成...')
p.close() # 关闭进程池,关闭后po不再接收新的请求
p.join() # 等待po中所有子进程执行完成,必须放在close语句之后
print('所有子进程完成.')
# 运行结果
>>> 等待所有子进程完成...
>>> 运行任务 0 (3722)...
>>> 运行任务 1 (3723)...
>>> 运行任务 2 (3724)...
>>> 运行任务 3 (3725)...
>>> 任务 3 运行 0.67 秒
>>> 运行任务 4 (3725)...
>>> 任务 2 运行 1.29 秒
>>> 任务 0 运行 2.00 秒
>>> 任务 1 运行 2.77 秒
>>> 任务 4 运行 2.31 秒
>>> 所有子进程完成.
非阻塞方式
调用func(并行执行,堵塞方式必须等待上一个进程退出才能执行下一个进程),args为传递给func的参数列表,kwds为传递给func的关键字参数列表;对Pool
对象调用join()
方法会等待所有子进程执行完毕,调用join()
之前必须先调用close()
,调用close()
之后就不能继续添加新的Process
了。
请注意输出的结果,task 0,1,2,3是立刻执行的,而task 4
要等待前面某个task完成后才执行,这是因为Pool的默认大小在我的电脑上是4,因此,最多同时执行4个进程。这是Pool有意设计的限制,并不是操作系统的限制。如果改成:
p = Pool(5)
就可以同时跑5个进程。
由于Pool
的默认大小是CPU的核数,如果你不幸拥有8核CPU,你要提交至少9个子进程才能看到上面的等待效果。
如果要使用Pool创建进程,就需要使用multiprocessing.Manager()中的Queue()
,而不是multiprocessing.Queue(),否则会得到一条如下的错误信息:
RuntimeError: Queue objects should only be shared between processes through inheritance.
# 修改import中的Queue为Manager
from multiprocessing import Manager,Pool
import os,time,random
def reader(q):
print("reader启动(%s),父进程为(%s)" % (os.getpid(), os.getppid()))
for i in range(q.qsize()):
print("reader从Queue获取到消息:%s" % q.get(True))
def writer(q):
print("writer启动(%s),父进程为(%s)" % (os.getpid(), os.getppid()))
for i in "itcast":
q.put(i)
if __name__=="__main__":
print("(%s) start" % os.getpid())
q = Manager().Queue() # 使用Manager中的Queue
po = Pool()
po.apply_async(writer, (q,))
time.sleep(1) # 先让上面的任务向Queue存入数据,然后再让下面的任务开始从中取数据
po.apply_async(reader, (q,))
po.close()
po.join()
print("(%s) End" % os.getpid())
>>> (4157) start
>>> writer启动(4159),父进程为(4157)
>>> reader启动(4160),父进程为(4157)
>>> reader从Queue获取到消息:i
>>> reader从Queue获取到消息:t
>>> reader从Queue获取到消息:c
>>> reader从Queue获取到消息:a
>>> reader从Queue获取到消息:s
>>> reader从Queue获取到消息:t
>>> (4157) End
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/165076.html原文链接:https://javaforall.cn