python并发编程之multiprocessing进程(二)
python的multiprocessing模块是用来创建多进程的,下面对multiprocessing总结一下使用记录。
系列文章
fork()
import os
pid = os.fork() # 创建一个子进程
if pid == 0:
print('这是子进程')
print(os.getpid(),os.getppid())
else:
print('这是父进程')
print(os.getpid())
os.wait() # 等待子进程结束释放资源
fork函数被调用后会返回两次,pid为0的代表子进程,其他返回子进程的id号表示父进程。
getpid和getppid函数可以获取本进程和父进程的id号;
fork方式的缺点:
- 兼容性差,只能在类linux系统下使用,windows系统不可使用;
- 扩展性差,当需要多条进程的时候,进程管理变得很复杂;
- 会产生“孤儿”进程和“僵尸”进程,需要手动回收资源。
优点:
是系统自带的接近低层的创建方式,运行效率高。
Process创建进程
- 创建方式一:
from multiprocessing import Queue, Process
import os
def test():
time.sleep(2)
print('this is process {}'.format(os.getpid()))
if __name__ == '__main__':
p = Process(target=test)
p.start() # 子进程 开始执行
p.join() # 等待子进程结束
print('ths peocess is ended')
- 创建方式二:
from multiprocessing import Queue, Process
import os
class MyProcess(Process):
def run(self):
time.sleep(2)
print('this is process {}'.format(os.getpid()))
def __del__(self):
print('del the process {}'.format(os.getpid()))
if __name__ == '__main__':
p = MyProcess()
p.start()
print('ths process is ended')
# 结果:
ths process is ended
this is process 7600
del the process 7600
del the process 12304
说明:
Process对象可以创建进程,但Process对象不是进程,其删除与否与系统资源是否被回收没有直接的关系。
上例看到del方法被调用了两次,Process进程创建时,子进程会将主进程的Process对象完全复制一份,这样在主进程和子进程各有一个Process对象,但是p1.start()启动的是子进程,主进程中的Process对象作为一个静态对象存在。
主进程执行完毕后会默认等待子进程结束后回收资源,不需要手动回收资源;
join()函数用来控制子进程结束的顺序,主进程会阻塞等待子进程结束,其内部也有一个清除僵尸进程的函数,可以回收资源;
当子进程执行完毕后,会产生一个僵尸进程,其会被join函数回收,或者再有一条进程开启,start函数也会回收僵尸进程,所以不一定需要写join函数。
windows系统在子进程结束后会立即自动清除子进程的Process对象,而linux系统子进程的Process对象如果没有join函数和start函数的话会在主进程结束后统一清除。
Process对象分析
class Process(object):
def __init__(self, group=None, target=None, name=None, args=(), kwargs={}):
pass
# Process对象是python用来创建进程的类
group:扩展保留字段;
target:目标代码,一般是我们需要创建进程执行的目标函数。
name:进程的名字,如果不指定会自动分配一个;
args:目标函数的普通参数;
kwargs:目标函数的键值对参数;
# 方法
start():创建一个子进程并执行,该方法一个Process实例只能执行一次,其会创建一个进程执行该类的run方法。
run():子进程需要执行的代码;
join():主进程阻塞等待子进程直到子进程结束才继续执行,可以设置等待超时时间timeout.
terminate():使活着的进程终止;
is_alive():判断子进程是否还活着。
进程池Pool
如果需要创建大量的进程,就需要使用Pool了。
from multiprocessing import Queue, Process, Pool
import os
def test():
time.sleep(2)
print('this is process {}'.format(os.getpid()))
def get_pool(n=5):
p = Pool(n) # 设置进程池的大小
for i in range(10):
p.apply_async(test)
p.close() # 关闭进程池
p.join()
if __name__ == '__main__':
get_pool()
print('ths process is ended')
分析:
如上,进程池Pool被创建出来后,即使实际需要创建的进程数远远大于进程池的最大上限,p1.apply_async(test)代码依旧会不停的执行,并不会停下等待;相当于向进程池提交了10个请求,会被放到一个队列中;
当执行完p1 = Pool(5)这条代码后,5条进程已经被创建出来了,只是还没有为他们各自分配任务,也就是说,无论有多少任务,实际的进程数只有5条,计算机每次最多5条进程并行。
当Pool中有进程任务执行完毕后,这条进程资源会被释放,pool会按先进先出的原则取出一个新的请求给空闲的进程继续执行;
当Pool所有的进程任务完成后,会产生5个僵尸进程,如果主线程不结束,系统不会自动回收资源,需要调用join函数去回收。
join函数是主进程等待子进程结束回收系统资源的,如果没有join,主程序退出后不管子进程有没有结束都会被强制杀死;
创建Pool池时,如果不指定进程最大数量,默认创建的进程数为系统的内核数量.
Pool对象分析
class Pool(object):
def __init__(self, processes=None, initializer=None, initargs=(),
maxtasksperchild=None, context=None):
pass
# 初始化参数
processes:进程池的大小,默认cpu内核的数量
initializer:创建进程执行的目标函数,其会按照进程池的大小创建相应个数的进程;
initargs:目标函数的参数
context:代码的上下文
# 方法
apply():使用阻塞方式调用func;
apply_async():使用非阻塞方式条用func;
close():关闭Pool,使其不再接受新的任务;
terminate():不管任务是否完成,立即终止;
join():主进程阻塞,等待子进程的退出,必须在close()后面使用;
map(self, func, iterable, chunksize=None):多进程执行一个函数,传入不同的参数;
starmap(self, func, iterable, chunksize=None):和map类似,但iterable参数可解压缩;
starmap_async(self, func, iterable, chunksize=None, callback=None,error_callback=None):使用异步的方式的starmap,callback为返回后的处理函数
map_async(self, func, iterable, chunksize=None, callback=None,error_callback=None):异步方式的map
- 实例
from multiprocessing import Pool
import os
def test(n):
time.sleep(1)
print('this is process {}'.format(os.getpid()))
return n
def test1(n, m):
print(n, m)
print('this is process {}'.format(os.getpid()))
def back_func(values): # 多进程执行完毕会返回所有的结果的列表
print(values)
def back_func_err(values): # 多进程执行完毕会返回所有错误的列表
print(values)
def get_pool(n=5):
p = Pool(n)
# p.map(test, (i for i in range(10))) # 阻塞式多进程执行
# p.starmap(test1, zip([1,2,3],[3,4,5])) # 阻塞式多进程执行多参数函数
# 异步多进程执行函数
p.map_async(test, (i for i in range(5)), callback=back_func, error_callback=back_func_err)
# 异步多进程执行多参数函数
p.starmap_async(test1, zip([1,2,3],[3,4,5]), callback=back_func, error_callback=back_func_err)
print('-----')
p.close()
p.join()
if __name__ == '__main__':
get_pool()
print('ths process is ended')
进程锁
进程虽然不像线程那样共享内存的数据,而是每个进程有单独的内存,但多进程也是共享文件系统的,即硬盘系统;当多进程同时写入文件操作时,可能造成数据的破坏,因此进程也存在同步锁。
from multiprocessing import Pool, Lock
muex = Lock()
def test():
if muex.acquire():
f = open('./test_pro.txt', 'r+', encoding='utf-8')
x = f.read()
if not x:
f.write('0')
else:
f.seek(0)
f.write(str(int(x)+1))
f.close()
muex.release()
if __name__ == '__main__':
p = Pool(5)
for i in range(10):
p.apply_async(test)
p.close()
p.join()
with open('./test_pro.txt', 'r+', encoding='utf-8') as f:
print(f.read())
进程锁可以保证文件系统的安全,但是它使得并行变成了串行,效率下降了,也可能造成死锁问题,一般避免用锁机制。
python并发编程之multiprocessing进程(二)的更多相关文章
- python并发编程之Queue线程、进程、协程通信(五)
单线程.多线程之间.进程之间.协程之间很多时候需要协同完成工作,这个时候它们需要进行通讯.或者说为了解耦,普遍采用Queue,生产消费模式. 系列文章 python并发编程之threading线程(一 ...
- python并发编程之gevent协程(四)
协程的含义就不再提,在py2和py3的早期版本中,python协程的主流实现方法是使用gevent模块.由于协程对于操作系统是无感知的,所以其切换需要程序员自己去完成. 系列文章 python并发编程 ...
- python并发编程之asyncio协程(三)
协程实现了在单线程下的并发,每个协程共享线程的几乎所有的资源,除了协程自己私有的上下文栈:协程的切换属于程序级别的切换,对于操作系统来说是无感知的,因此切换速度更快.开销更小.效率更高,在有多IO操作 ...
- python并发编程之threading线程(一)
进程是系统进行资源分配最小单元,线程是进程的一个实体,是CPU调度和分派的基本单位,它是比进程更小的能独立运行的基本单位.进程在执行过程中拥有独立的内存单元,而多个线程共享内存等资源. 系列文章 py ...
- Python核心技术与实战——十七|Python并发编程之Futures
不论是哪一种语言,并发编程都是一项非常重要的技巧.比如我们上一章用的爬虫,就被广泛用在工业的各个领域.我们每天在各个网站.App上获取的新闻信息,很大一部分都是通过并发编程版本的爬虫获得的. 正确并合 ...
- Python核心技术与实战——十八|Python并发编程之Asyncio
我们在上一章学习了Python并发编程的一种实现方法——多线程.今天,我们趁热打铁,看看Python并发编程的另一种实现方式——Asyncio.和前面协程的那章不太一样,这节课我们更加注重原理的理解. ...
- python并发编程之IO模型,
了解新知识之前需要知道的一些知识 同步(synchronous):一个进程在执行某个任务时,另外一个进程必须等待其执行完毕,才能继续执行 #所谓同步,就是在发出一个功能调用时,在没有得到结果之前,该调 ...
- Python并发编程之IO模型
目录 IO模型介绍 阻塞IO(blocking IO) 非阻塞IO(non-blocking IO) IO多路复用 异步IO IO模型比较分析 selectors模块 一.IO模型介绍 Stevens ...
- python并发编程之IO模型(Day38)
一.IO模型介绍 为了更好的学习IO模型,可以先看同步,异步,阻塞,非阻塞 http://www.cnblogs.com/linhaifeng/articles/7430066.html#_label ...
随机推荐
- JSON字符串转换成对象时候 需要有默认构造器 因为这是通过反射创建的 反射是先通过默认构造器创建对象的
JSON字符串转换成对象时候 需要有默认构造器 因为这是通过反射创建的 反射是先通过默认构造器创建对象的
- uva1391-Astronauts
宇航员执行任务,有三个任务ABC.把宇航员按照平均年龄分成新老两组,老宇航员可以去AC,新宇航员可以取BC.宇航员之间有不能共存关系,问是否有合法的分配方案. 分析 虽然有三个任务,但每个宇航员还是只 ...
- BZOJ 1190 梦幻岛宝珠(分组01背包)
跑了7000ms... 这是个体积和价值都超大的背包.但是体积保证为a*2^b的(a<=10,b<=30)形式.且n<=100. 于是可以想到按b来分组.这样的话每组最多为a*n*2 ...
- 【bzoj4897】[Thu Summer Camp2016]成绩单 区间dp
题目描述 给你一个数列,每次你可以选择连续的一段,付出 $a+b\times 极差^2$ 的代价将其删去,剩余部分拼到一起成为新的数列继续进行此操作.求将原序列全部删去需要的最小总代价是多少. 输入 ...
- Oracle中三种循环(For、While、Loop)案例
1.ORACLE中的FOR循环用法(九九乘法表) declare i ; j ; begin .. loop ..i loop Dbms_Output.put(i||'*'||j||'='||i*j) ...
- 关于slow http attack以及apche tomcat的应对方式
HTTP 的 Slow Attack 有着悠久历史的 HTTP DOS 攻击方式,最早大约追溯到 5 年前,按理说早该修复了,但是 Apache 的默认配置中仍然没有添加相关配置,或者他们认为这是 f ...
- MySQL二进制安装部署
#使用二进制包安装mysql -linux-glibc2.-x86_64.tar.gz /data/ -linux-glibc2.-x86_64.tar.gz -C /data/ -linux-gli ...
- BZOJ4890 Tjoi2017城市
显然删掉的边肯定是直径上的边.考虑枚举删哪一条.然后考虑怎么连.显然新边应该满足其两端点在各自树中作为根能使树深度最小.只要线性求出这个东西就可以了,这与求树的重心的过程类似. #include< ...
- Static全局变量(函数)与普通的全局变量(函数)的区别
转自:http://www.cnblogs.com/zjvskn/p/5548879.html Static全局变量与普通的全局变量有什么区别? 答: 全局变量(外部变量)的说明之前再冠以static ...
- 树莓派更改vnc分辨率
参考链接:https://raspberrypi.stackexchange.com/questions/56421/how-to-increase-resolution-on-latest-rasp ...