由于GIL(全局解释锁)的问题,python多线程并不能充分利用多核处理器。如果想要充分地使用多核CPU的资源,在python中大部分情况需要使用多进程。multiprocessing可以给每个进程赋予单独的Python解释器,这样就规避了全局解释锁所带来的问题。与threading.Thread类似,可以利用multiprocessing.Process对象来创建一个进程。multiprocessing支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Queue、Pipe、Lock等组件。

Process

单进程

# coding: utf-8

from multiprocessing import Process
import time def task(msg):
print 'hello, %s' % msg
time.sleep(1) if __name__ == '__main__':
p = Process(target=task, args=('world',)) p.start()
if p.is_alive():
print 'Process: %s is running' % p.pid
p.join()

这段代码的执行过程:在主进程中创建子进程,然后调用start()启动子进程,调用join()等待子进程执行完,再继续执行主进程的整个的执行流程。 
控制子进程进入不同阶段的是 start(), join(), is_alive(), terminate(), exitcode() 方法,这些方法只能在创建子进程的进程中执行。

创建:创建进程需要一个 function 和相关参数,参数可以是dictProcess(target=func, args=(), kwargs = {}),name 可以用来标识进程。

关闭:close停止接收新的任务,如果还有任务来,就会抛出异常。 join 是等待所有任务完成。 join 必须要在 close 之后调用,否则会抛出异常。

等待:在UNIX平台上,当某个进程终结之后,该进程需要被其父进程调用wait,否则进程成为僵尸进程(Zombie)。所以在这里,我们调用了Process对象的join()方法 ,实际上等同于wait的作用。 
对于多线程来说,由于只有一个进程,所以不存在此必要性。

结束:terminate() 结束工作进程,不再处理未完成的任务。

多进程

# coding: utf-8

from multiprocessing import Process
import multiprocessing
import time def task1(msg):
print 'task1: hello, %s' % msg
time.sleep(1) def task2(msg):
print 'task2: hello, %s' % msg
time.sleep(1) def task3(msg):
print 'task3: hello, %s' % msg
time.sleep(1) if __name__ == '__main__':
p1 = Process(target=task1, args=('one',))
p2 = Process(target=task2, args=('two',))
p3 = Process(target=task3, args=('three',)) start = time.time() p1.start()
p2.start()
p3.start() print("The number of CPU is:" + str(multiprocessing.cpu_count()))
for p in multiprocessing.active_children():
print("child p.name: " + p.name + "\tp.id: " + str(p.pid)) p1.join()
p2.join()
p3.join() end = time.time()
print('3 processes take %s seconds' % (end - start))

执行结果:

task1: hello, one
task2: hello, two
task3: hello, three
The number of CPU is:4
child p.name: Process-1:p.id: 99359
child p.name: Process-2:p.id: 99360
child p.name: Process-3:p.id: 99361
3 processes take 1.00933504105 seconds

这里三个进程执行花费约1s,说明程序是并发执行的。对于更多的并发进程,我们可以放到一个循环中进行处理。

Lock

当多个进程需要访问共享资源的时候,Lock可以用来避免访问的冲突

# coding: utf-8

from multiprocessing import Lock, Process
import time def task1(lock, f):
with lock:
f = open(f, 'w+')
f.write('hello ')
time.sleep(1)
f.close() def task2(lock, f):
lock.acquire()
try:
f = open(f, 'a+')
time.sleep(1)
f.write('world!')
except Exception as e:
print(e)
finally:
f.close()
lock.release() if __name__ == '__main__':
lock = Lock()
fn = './file.txt' start = time.time()
p1 = Process(target=task1, args=(lock, fn,))
p2 = Process(target=task2, args=(lock, fn,)) p1.start()
p2.start() p1.join()
p2.join() end = time.time()
print 'time cost: %s seconds' % (end - start) with open(fn, 'r') as f:
for x in f.readlines():
print x

执行结果:

time cost: 2.0059568882 seconds
hello world!

因为要访问共享文件,先获得锁的进程会阻塞后面的进程,因此程序运行耗时约2s。

Semaphore

Semaphore 和 Lock 稍有不同,Semaphore 相当于 N 把锁,获取其中一把就可以执行了。 信号量的总数 N 在构造时传入,s = Semaphore(N)。 和 Lock 一样,如果信号量为0,则进程堵塞,直到信号大于0。Semaphore可用来控制对共享资源的访问数量,例如池的最大连接数。

# coding: utf-8

from multiprocessing import Semaphore, Process
import time def task(s, msg):
s.acquire()
print 'hello, %s' % msg
time.sleep(1)
s.release() if __name__ == '__main__':
s = Semaphore(2) processes = []
for x in range(8):
p = Process(target=task, args=(s, x,))
processes.append(p) start = time.time()
for p in processes:
p.start() for p in processes:
p.join() end = time.time() print '8 process takes %s seconds' % (end - start)

执行结果:

hello, 0
hello, 1
hello, 3
hello, 2
hello, 4
hello, 5
hello, 7
hello, 6
8 process takes 4.00831484795 seconds

信号量同步基于内部计数器,每调用一次acquire(),计数器减1;每调用一次release(),计数器加1.当计数器为0时,acquire()调用被阻塞。这是Dijkstra信号量概念P()和V()的Python实现。信号量同步机制适用于访问像服务器、文件这样的有限资源。

Event

Event用来实现进程间同步通信。

# coding: utf-8

from multiprocessing import Process, Event
import time def task1(e, msg):
print 'task1 is waitting...'
e.wait()
time.sleep(1)
print 'hello, %s, e.is_set(): %s' % (msg, e.is_set()) def task2(e, msg):
print 'task2 is waitting...'
e.wait(msg)
print 'hello, %s, e.is_set(): %s' % (msg, e.is_set()) if __name__ == '__main__':
e = Event() p1 = Process(target=task1, args=(e, 1))
p2 = Process(target=task2, args=(e, 2)) p1.start()
p2.start() time.sleep(3) e.set()
print 'main: event is set'

执行结果:

task1 is waitting...
task2 is waitting...
hello, 2, e.is_set(): False
main: event is set
hello, 1, e.is_set(): True

Pool

如果有50个task要执行,但 CPU 只有4核,我们当然可以循环创建50个进程来做这个事情,但这样处理大大增加进程管理和调度的开销。 
如果可以只创建4个进程,让它们轮流工作完成任务,不用我们自己去管理具体的进程的创建、销毁和调度,岂不更好。multiprocessing中的 Pool 可以帮助我们做到这一点。

多进程异步

# coding: utf-8

from multiprocessing import Pool
import time def task(msg):
print 'hello, %s' % msg
time.sleep(1) if __name__ == '__main__':
pool = Pool(processes=4) for x in range(10):
pool.apply_async(task, args=(x,)) pool.close()
pool.join() print 'processes done.'

注意:这里使用的是apply_async,多个进程异步执行;如果调用async,就变成阻塞版本了。 
执行结果:

hello, 0
hello, 1
hello, 2
hello, 3
hello, 4
hello, 5
hello, 6
hello, 7
hello, 8
hello, 9
10 processes take 3.09226489067 seconds

Pool 进程池创建4个进程,不管有没有任务,都一直在进程池中等候。官网的描述:Worker processes within a Pool typically live for the complete duration of the Pool’s work queue。数据来的时候,若有空闲进程,则利用空闲的进程完成任务,直到所有任务完成为止;若没有空闲的进程,则需要等待,直到池中有进程结束。

获取进程执行结果

更多的时候,我们不仅需要多进程执行,还需要关注每个进程的执行结果,我们可以通过获取apply_async的返回值得到执行结果。

# coding: utf-8

from multiprocessing import Pool
import time def task(msg):
print 'hello, %s' % msg
time.sleep(1)
return 'msg: %s' % msg if __name__ == '__main__':
pool = Pool(processes=4) results = []
for x in range(10):
ret = pool.apply_async(task, args=(x,))
results.append(ret) pool.close()
pool.join() print 'processes done, result:' for x in results:
print x.get()

pool中的map方法

上面我们是通过一个循环往进程池添加任务,Pool提供了更优雅的map方法来管理任务的提交,只需对上面的代码稍作修改。

# coding: utf-8

from multiprocessing import Pool
import time def task(msg):
print 'hello, %s' % msg
time.sleep(1)
return 'msg: %s' % msg if __name__ == '__main__':
pool = Pool(processes=4) results = []
msgs = [x for x in range(10)]
results = pool.map(task, msgs) pool.close()
pool.join() print 'processes done, result:' for x in results:
print x

python并发之multiprocessing的更多相关文章

  1. Python中的multiprocessing和threading

    Python中的multiprocessing和threading分别使用来实现多进程编程和多线程编程的.其中threading比较简单,而前者比较繁琐. 下面,我们进行一下分析: 多线程--thre ...

  2. Python多进程并发(multiprocessing)用法实例详解

    http://www.jb51.net/article/67116.htm 本文实例讲述了Python多进程并发(multiprocessing)用法.分享给大家供大家参考.具体分析如下: 由于Pyt ...

  3. python开发之路:python数据类型(老王版)

    python开发之路:python数据类型 你辞职当了某类似微博的社交网站的底层python开发主管,官还算高. 一次老板让你编写一个登陆的程序.咔嚓,编出来了.执行一看,我的妈,报错? 这次你又让媳 ...

  4. Python多进程库multiprocessing中进程池Pool类的使用[转]

    from:http://blog.csdn.net/jinping_shi/article/details/52433867 Python多进程库multiprocessing中进程池Pool类的使用 ...

  5. python之多进程multiprocessing模块

    process类介绍 multiprocessing 模块官方说明文档 Process 类用来描述一个进程对象.创建子进程的时候,只需要传入一个执行函数和函数的参数即可完成 Process 示例的创建 ...

  6. python学习笔记——multiprocessing 多进程组件 进程池Pool

    1 进程池Pool基本概述 在使用Python进行系统管理时,特别是同时操作多个文件目录或者远程控制多台主机,并行操作可以节约大量时间,如果操作的对象数目不大时,还可以直接适用Process类动态生成 ...

  7. Python3.6编译安装以及python开发之virtualenv与virtualenvwrapper

    Python3.6编译安装 下载python源码包 先到安装目录 cd /opt 下载源码包 wget https://www.python.org/ftp/python/3.6.2/Python-3 ...

  8. python 并发之多进程实现

    一.multipricessing模块的介绍 python中的多线程无法利用多核优势,如果想要充分的使用多核CPU资源,在python中大部分情况下需要用多线程,python提供了multiproce ...

  9. python并发之多进程

    #mutiprocessing模块 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程.Pytho ...

随机推荐

  1. eclipse 远程调试tomcat6

    一.tomcat6配置 1.修改tomcat\bin目录下的startup.bat如下,红色部分是新增的,修改后另存为jpda.bat set JPDA_ADDRESS=8114set JPDA_TR ...

  2. angular js jquery中post请求的一点小区别

    这也是最近遇到的坑,还是之前那个项目,现在要实现登录功能. 背景:注册功能之前已经跑通了.前端用的是jquery后台是springMVC.鉴于注册和登录有些接口功能是类似的(比如注册确保邮箱是没有注册 ...

  3. IE浏览器兼容 css之bug 问题

    bug的几种常见原因: 1.盒模型bug      原因:没有正确声明doctype(如果没有声明doctype,各浏览器对代码的解析有不同的规范).解决方法:使用严格的doctype声明. 2.各浏 ...

  4. 【第13届景驰-埃森哲杯广东工业大学ACM程序设计大赛-L】用来作弊的药水

    链接:https://www.nowcoder.com/acm/contest/90/L来源:牛客网 输入x,a,y,b,(1<=x,a,y,b<=10^9)判断x^a是否等于y^b 前面 ...

  5. Ubuntu下Python使用MySQLdb远程连接数据库的常见问题及解决方案

    本文基于http://www.cnblogs.com/fnng/p/3565912.html这篇博文,学习使用MySQLdb过程中遇到下面这些问题. 1. 安装MySQLdb时运行sudo pytho ...

  6. 解析XML文件的几种方式及其比较

    解析xml文件目前比较流行的主要有四种方式: 1. DOM(Document Object Model)它把整个XML文档当成一个对象加载到内  存,不管文档有多大.它一般处理小文件 2.SAX(Si ...

  7. Excel 读写操作

    读 import xlrd from xlrd.book import Book from xlrd.sheet import Sheet from xlrd.sheet import Cell wo ...

  8. Golang Printf、Sprintf 、Fprintf 格式化

    /* %v 输出结构体 {10 30} %+v 输出结构体显示字段名 {one:10 tow:30} %#v 输出结构体源代码片段 main.Point{one:10, tow:30} %T 输出值的 ...

  9. Java 实现--时间片轮转 RR 进程调度算法

    时间片轮转(Round-Robin)调度算法是操作系统一种比较公平的进程调度的方式,这种方式使得就绪队列上的所有进程在每次轮转时都可以运行相同的一个时间片. 基本原理 算法实现原理是,按进程到达顺序( ...

  10. 数据库模式显示的Swing表格

    http://code.google.com/p/simpleframework/ 是一个国内开源的JavaWeb框架,但其net.simpleframework.swing包里面提供了一个超强的Sw ...