首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

python之进程

进程(Process)是计算机中的程序关于某数据集合上的一次运行活动,是系统进行**资源分配和调度**的基本单位,是操作系统结构的基础。为了提高程序运行的效率,python 中提供了多进程机制。 python 实现多进程的方式主要有两种,一种是使用 os 模块中的 fork 方法,另一种是使用 multiprocessing 模块。这两种方法的区别在于前者适用于 Unix/Linux 操作系统,对 Windows 系统不支持,后者则是跨平台的实现方式。

使用 os 模块中的 fork 方法实现多进程。python 的 os 模块封装了常见的系统调用,其中就有 fork 方法。fork 方法来自于 Unix/Linux 操作系统中提供的一个 fork 系统调用,这个方法非常特殊。普通方法都是调用一次,返回一次。而**fork 方法是调用一次,返回两次**,原因在操作系统将当前系统(父进程)复制出一份进程(子进程),这两个进程几乎完全相同,于是 fork 方法分别在父进程和子进程中返回。**子进程中永远返回 0,父进程中返回的是子进程的 ID。**具体情况,见如下代码,其中,os 模块中的 getpid 方法用于返回当前进程的 ID,getppid 方法用于获取父进程的 ID。

import os

if __name__ == '__main__':

print 'current Process (%s) start ...' % (os.getpid())

pid = os.fork()

if pid

print 'error in fork.'

elif pid > 0:

print 'I (%s) create a child process (%s)' % (os.getpid(), pid)

else:

print 'I am child process (%s) and my parent process is (%s)' % (os.getpid(), os.getppid())

使用 multiprocessing 模块创建多进程。multiprocessing 模块提供了一个 Process 类来描述进程对象。创建子进程时,只需要传入一个执行函数和函数参数,即可完成一个 Process 实例的创建,用 start() 方法启动进程,用 join() 实现进程间的同步。下面,用一个例子来演示说明。

import os

from multiprocessing import Process

def run_process(name):

print 'Child process %s (%s) Running...' % (name, os.getpid())

if __name__ == '__main__':

print 'Parent process %s.' % os.getpid()

for i in range(5):

p = Process(target=run_process, args=(str(i),))

print 'Process will start.'

p.start()

p.join()

print 'Process end.'

进程具有并发性,共享性,独立性和异步性,以上代码中子进程输出语句说明了进程的异步性。

multiprocessing 模块提供了 Pool 类来代表进程池对象,以上两种创建进程的方法在启动大量子进程时,需要手动限制进程数量,显得太过繁琐,而使用进程池批量创建子进程的方式更加方便。

multiprocessing 模块提供了 Pool 类来代表进程池对象,Pool 类可以提供制定数量的进程供用户调用,默认大小是 CPU 的核数。当有新的请求提交到 Pool 中时,如果进程池还没有满,那么就会创建一个新的进程用来执行该请求;如果进程池中的进程数已经达到规定的最大值,那么该请求就好等待,直到池中有进程结束,才会创建新的进程来处理它。下面,用代码来演示进程池对象。

from multiprocessing import Pool

import os, time, random

def run_task(name):

print 'Task %s (pid = %s) is running...' % (name, os.getpid())

time.sleep(random.random() * 3)

print 'Task %s end.' % name

if __name__ == '__main__':

print 'current process %s.' % os.getpid()

p = Pool(processes=3)

for i in range(5):

p.apply_async(run_task, args=(i,))

print 'Waiting for all subprocess done...'

p.close()

p.join()

print 'All subprocess done.'

**注意**: Pool 对象调用 join() 方法会等待所有子进程执行完毕,调用 join() 方法之前必须调用 close() 方法,调用 close() 方法之后就不能继续添加新的进程了。

进程间通信,操作系统中存在大量进程,那么进程间的通信是必不可少的。python 提供了 Queue 和 Pipe 两张方式实现进程间的通信,两张区别在于,Pipe 常用来在两个进程间通信,Queue 用来在多个进程间实现通信。

Queue 实现进程通信。Queue 是多进程安全的队列,可以使用 Queue 实现多进程间的数据传递,有两个方法 Put 和 Get 可以进行 Queue 操作。

Put 方法用以插入数据到队列中,它还有两个可选数据:blocked 和 timeout。如果 blocked 为 True (默认值),并且 timeout 为正值,该方法会阻塞 timeout 指定的时间,直到该队列有剩余空间;如果超时,会抛出 Queue.Full 异常。如果 blocked 为 False,但该队列以满,会立即抛出 Queue.Full 异常。

Get 方法可以从队列读取并且删除一个元素。Get 方法也有两个可选参数:blocked 和 timeout。如果 blocked 为 True (默认值),并且 timeout 为正值,那么在等待时间内没有取到任何元素,会抛出 Queue.Empty 异常;如果 blocked 为 False,有两张情况:如果队列有元素可以用,则立即会返回该值;否则,如果队列为空,立即抛出 Queue.Empty 异常。

下面用代码来演示 Queue 实现进程间通信。

from multiprocessing import Process, Queue

import os, time, random

def process_write(q, urls):

print('Process (%s) is writing...' % os.getpid())

for url in urls:

q.put(url)

print('Put %s to queue...' % url)

time.sleep(random.random())

def process_read(q):

print('Process (%s) is reading...' % os.getpid())

while True:

url = q.get(True)

print('Get %s from queue...' % url)

if __name__ == '__main__':

q = Queue()

process_write1 = Process(target=process_write, args=(q, ['url1', 'url2', 'url3']))

process_write2 = Process(target=process_write, args=(q, ['url4', 'url5', 'url6']))

process_reader = Process(target=process_read, args=(q,))

process_write1.start()

process_write2.start()

process_reader.start()

process_write1.join()

process_write2.join()

process_reader.terminate()

Pipe 实现进程通信。Pipe 通常用来在两个进程间进行通信,两个进程分别位于管道的两端。Pipe 方法返回 (conn1, conn2) 代表管道的两端,该方法还有 duplex 参数,如果 duplex 参数为 True (默认值),那么这个管道是全双工模式,也就是管道两端均可以同时接收和返送数据;如果 duplex 参数为 False,conn1 只负责接收消息,conn2 只负责发送消息。

send 和 recv 方法分别是发送和接收消息的方法,如果没有消息可接收,recv 方法会一直阻塞,如果管道关闭,那么 recv 方法会抛出 EOFError。下面通过代码来演示 Pipe 实现进程通信。

import multiprocessing, random, os, time

def process_send(pipe, urls):

for url in urls:

print('Process (%s) send: %s' % (os.getpid(), url))

pipe.send(url)

time.sleep(random.random())

def process_recv(pipe):

while True:

print('Process (%s) recv: %s' % (os.getpid(), pipe.recv()))

time.sleep(random.random())

if __name__ == '__main__':

pipe = multiprocessing.Pipe()

p1 = multiprocessing.Process(target=process_send, args=(pipe[0], ['url' + str(i) for i in range(10)]))

p2 = multiprocessing.Process(target=process_recv, args=(pipe[1],))

p1.start()

p2.start()

p1.join()

p2.terminate()

痛点就是起点

这里是我个人博客,欢迎访问。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180812G0OXNO00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券