『Python』多进程
Python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在Python中大部分情况需要使用多进程。Python提供了multiprocessing。
multiprocessing模块用来开启子进程,并在子进程中执行我们定制的任务(比如函数),该模块与多线程模块threading的编程接口类似。
multiprocessing模块的功能众多:支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Queue、Pipe、Lock等组件。
需要再次强调的一点是:与线程不同,进程没有任何共享状态,进程修改的数据,改动仅限于该进程内。
1. 进程——Process
1.1 方法
1.1.1 创建进程
Process(group=None, target=None, name=None, args=(), kwargs={}, *, daemon=None)
group
参数未使用,永远为None,故本方法应该使用关键字参数调用target
表示调用对象,即子进程要执行的任务name
子进程名称args
表示调用对象的位置参数元组,args=(1,2,'egon')kwargs
表示调用对象的字典,kwargs={'name':'egon','age':18}daemon
守护进程,True或者False,如果不传,则从父类的daemon继承
1.1.2 p.run()
进程启动时运行的方法,正是它去调用 target 指定的函数,我们自定义类的类中一定要实现该方法。可以在子类中重写此方法。标准 run() 方法调用传递给对象构造函数的可调用对象作为目标参数(如果有),分别使用 args 和 kwargs 参数中的顺序和关键字参数。
1.1.3 p.start()
启动进程,并调用该子进程中的 run() 方法。
1.1.4 p.join(timeout=None)
主进程等待 p 终止(强调:是主进程处于等待的状态,而 p 是处于运行的状态)。
timeout是可选的超时时间(秒),如果可选参数timeout是None(默认值),则该方法将阻塞,直到调用join()方法的进程终止。需要强调的是,p.join()只能join住start开启的进程,而不能join住run开启的进程。
1.1.5 p.is_alive()
返回进程是否存活。
从
start()方法返回到子进程终止的那一刻,进程对象仍处于活动状态。
1.1.6p.terminate()
强制终止进程 p,不会进行任何清理操作。
如果
p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。
如果
p还保存了一个锁那么也将不会被释放,进而导致死锁
1.2 属性
1.2.1 p.name
进程的名称。该名称是一个字符串,仅用于识别目的,它没有语义。可以为多个进程指定相同的名称。
初始名称由构造器设定。如果没有为构造器提供显式名称,则会构造一个形式为 'Process-N' 的名称,表明是其父亲的第 N 个孩子。
1.2.2 p.pid
返回进程的ID,在调用 start() 方法之前返回 None
1.2.3 p.daemon
进程的守护进程标志,一个布尔值。必须在 start() 调用之前设置,当进程退出时,它会尝试终止其所有守护进程子进程。
注意,不允许守护进程创建子进程。否则,守护进程会在子进程退出时终止其子进程。
1.2.4 p.exitcode
进程在运行时为 None、如果为–N,表示被信号 N 结束(了解即可)
1.2.5 p.authkey
进程的身份验证密钥(字节字符串)。
当 multiprocessing 初始化时,主进程使用 os.urandom() 分配一个随机字符串。
当创建 Process 对象时,它将继承其父进程的身份验证密钥,尽管可以通过将 authkey 设置为另一个字节字符串来更改。
需要注意的是
start(),join(),is_alive(),terminate()和exitcode只能由创建进程对象的过程调用。
1.3 Process 的使用
在windows中 Process() 必须放到 if __name__ == '__main__':下,
由于Windows没有 fork,多处理模块启动一个新的Python进程并导入调用模块。
如果在导入时调用 Process(),那么这将启动无限继承的新进程(或直到机器耗尽资源)。
这是隐藏对 Process() 内部调用的源,使用 if __name__ == “__main __”,这个 if语句中的语句将不会在导入时被调用。
1.3.1 创建子进程的两种方法
- 通过
Process类创建对象
from multiprocessing import Process
import time
import random
def info(name):
print(f"Process-{name} info starts...")
time.sleep(random.randrange(1, 5))
print(f"Process-{name} info ends...")
if __name__ == "__main__":
p1 = Process(target=info, args=("p1",))
p2 = Process(target=info, args=("p2",))
p3 = Process(target=info, args=("p3",))
p4 = Process(target=info, args=("p4",))
p1.start()
p2.start()
p3.start()
p4.start()
print("主进程")
输出结果(不唯一):
主进程
Process-p2 info starts...
Process-p4 info starts...
Process-p1 info starts...
Process-p3 info starts...
Process-p3 info ends...
Process-p2 info ends...
Process-p1 info ends...
Process-p4 info ends...
- 定义一个类继承
Process,重写run()方法,并通过自定义类创建对象
from multiprocessing import Process
import time
import random
class info(Process):
def __init__(self, name):
super().__init__() # 必须super()方法先,不然会覆盖__name
self.__name = name
def run(self) -> None:
print(f"Process-{self.__name} run starts...")
time.sleep(random.randrange(1, 5))
print(f"Process-{self.__name} run ends...")
if __name__ == "__main__":
p1 = info("p1")
p2 = info("p2")
p3 = info("p3")
p4 = info("p4")
p1.start()
p2.start()
p3.start()
p4.start()
print("主进程")
输出结果(不唯一):
主进程
Process-p1 run starts...
Process-p2 run starts...
Process-p3 run starts...
Process-p4 run starts...
Process-p1 run ends...
Process-p3 run ends...
Process-p4 run ends...
Process-p2 run ends...
1.3.2 进程之间的内存空间是隔离的
from multiprocessing import Process
import time
# 在windows系统中应该把全局变量定义在if __name__ == '__main__'之外就实现内存空间隔离了
l = [100]
def work():
print('子进程内: ', id(l))
if __name__ == '__main__':
p = Process(target=work)
p.start()
time.sleep(5)
print('主进程内: ', id(l))
输出:
子进程内: 1869490089416
主进程内: 2479165975816
要是按照以前的认知,应该都是一样的内存地址,这里不一样就是因为进程间不共享,这里特意用了可变对象
list做的实验,不存在不可变对象的问题。
从这看出,应该是对父进程的变量成员做了一份复制。
1.3.3 Process对象的join方法:主进程等,等待子进程结束
from multiprocessing import Process
import time
import random
class info(Process):
def __init__(self, name):
super().__init__()
self.__name = name
def run(self) -> None:
print(f"Process-{self.__name} run starts...")
time.sleep(random.randrange(1, 3))
print(f"Process-{self.__name} run ends...")
if __name__ == "__main__":
p = info("p")
p.start()
p.join()
print("start")
输出:
Process-p run starts...
Process-p run ends...
start
这样可能看不出来什么,下面把p.join()注释掉再运行一遍:
from multiprocessing import Process
import time
import random
class info(Process):
def __init__(self, name):
super().__init__()
self.__name = name
def run(self) -> None:
print(f"Process-{self.__name} run starts...")
time.sleep(random.randrange(1, 3))
print(f"Process-{self.__name} run ends...")
if __name__ == "__main__":
p = info("p")
p.start()
# p.join()
print("start")
此时输出:
start
Process-p run starts...
Process-p run ends...
join住父进程,就允许子进程执行完再执行父进程,如果没有join语句,则谁先谁后不一定,但是,创建子进程需要时间(分配内存等),故总是看到父进程优先执行
1.3.4 守护进程
1.3.4.1 守护子进程
主进程创建守护进程:
守护进程会在主进程代码执行结束后就终止
守护进程内无法再开启子进程,否则抛出异常
【注】进程之间是互相独立的,主进程代码运行结束,守护进程随即终止
from multiprocessing import Process
import os, time, random
def task():
print('%s is running' % os.getpid())
time.sleep(2)
print('%s is done' % os.getpid())
# 注意,守护进程内无法再开启子进程,否则抛出异常
if __name__ == '__main__':
p = Process(target=task)
p.daemon = True # 必须在p.start()之前
p.start()
time.sleep(1)
print('主')
输出:
8888 is running
主
原因是,主进程先创建子进程
p,然后休眠1s,在这期间p进程创建完毕,并执行,所以先打印了第一行字符串,然后主进程苏醒(没苏醒由于p进程休眠2s,也会执行它的),打印主进程的字符串,结束主进程,p作为守护进程也随之毁灭,故p进程的第二行字符串不会执行打印。
1.3.4.2 守护子进程、非守护子进程并存
在上面的例子是子进程只有一个守护进程,在主进程执行完毕,守护子进程就会被干掉,我们在来看一个,子进程既有守护子进程,又包含非守护子进程。
from multiprocessing import Process
import time
def foo():
print(123)
time.sleep(1)
print("end123")
def bar():
print(456)
time.sleep(3)
print("end456")
if __name__ == '__main__':
p1 = Process(target=foo)
p2 = Process(target=bar)
p1.daemon = True
p1.start()
p2.start()
print("main-------")
输出:
main-------
456
end456
由于
p1,p2都是子进程,需要开辟内存空间,需要耗费时间,所以会优先输出主进程__main__,由于p1是守护子进程,p2是非守护子进程,当__main__进程执行完毕,p1守护进程也就退了,但是还有一个p2非守护进程成为孤儿进程,它会被程序的进程收养,所以p2会执行自己的代码任务,当p2执行完毕,整个程序就退出了。
2. 进程池——Pool
Multiprocessing.Pool可以提供指定数量的进程供用户调用,当有新的请求提交到Pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,才会创建新的进程来执行它。Pool类用于需要执行的目标很多,而手动限制进程数量又太繁琐时,如果目标少且不用控制进程数量则可以用Process类。
1.1 方法
1.1.1 创建线程池
Pool(processes=None, initializer=None, initargs=(),
maxtasksperchild=None, context=None)
- processes
要使用的工作进程数。如果进程是None,那么使用返回的数字os.cpu_count(),也就是说根据本地的CPU个数决定 - initializer
如果initializer是None,那么每一个工作进程在开始的时候会调用initializer(*initargs) - initargs
调用initializer的参数 - maxtasksperchild
工作进程退出之前可以完成的任务数,完成后用一个新的工作进程来替代原进程,来让闲置的资源被释放。maxtasksperchild默认是None,意味着只要Pool存在工作进程就会一直存活 - context
用在制定工作进程启动时的上下文,一般使用multiprocessing.Pool()或者一个context对象的Pool()方法来创建一个池,两种方法都适当的设置了context。
1.1.2 p.apply(func, args=(), kwds={}) <不推荐使用>
Equivalent of func(*args, **kwds), Pool must be running。它会阻塞其他进程(包括线程池中的其他进程和 main 进程),直到结果准备就绪。
from multiprocessing import Pool
def test(p):
print(p)
if __name__ == "__main__":
pool = Pool(3)
for i in range(4):
pool.apply(test, args=(i,))
print('test')
输出:
0
1
2
3
test
test最后打印就是因为前面执行apply()函数阻塞了,等apply()执行完才能继续下面
1.1.3 p.apply_async()
apply_async(func, args=(), kwds={}, callback=None,error_callback=None)
在一个池工作进程中执行 func(*args,**kwds),然后返回结果。此方法的结果是 AsyncResult 类的实例,callback 是可调用对象,接收一个参数,当结果变为 ready 时,将回调函数应用于它。回调应该立即完成,否则处理结果的线程将被阻塞。
from multiprocessing import Pool
import time, random
def test(p):
time.sleep(random.randrange(2))
return p * p
if __name__ == "__main__":
pool = Pool(processes=2)
for i in range(1, 5):
pool.apply_async(test, args=(i,), callback=print)
print('test')
pool.close() # 必须先close,禁止向池中添加任务,不然join报错
pool.join() # 没有这两句代码,直接输出test后,整个程序就会停止
输出:
test
1
4
16
9
上面的程序是,多进程执行
test()函数,如果执行没问题返回ready,就对test的结果执行callback指定的回调函数
apply_async()不阻塞主进程,callback的入参是func()的返回值
总结一下,apply_async方法是异步方法,可以不等先添加到进程池的方法执行完,就异步地继续添加方法到进程池中;而 apply 方法是同步方法,必须等上一个函数执行完再添加。打个比方,执行的函数要休眠3 s,显然异步 apply_async 几乎3 s就结束,而 apply 方法随子进程增加,耗时也是线性增加。apply_async 也是Python官方推荐的方法。
1.1.4 p.map()
map(func, iterable, chunksize=None)
map()内置函数的并行等价物(尽管它只支持一个可迭代的参数)。它会阻塞 main,直到结果准备就绪。可以把传入的 Iterable 对象分成多个块,通过将 chunksize设置块的大小,将这些块作为单独的任务提交给进程池,不传值时,会自动根据 Iterable 对象和进程池的大小自动确定。返回值是 list。
from multiprocessing import Pool
def int2str(n):
return str(n)
if __name__ == "__main__":
pool = Pool(processes=2)
l = [6, 4, 4, 4, 7, 6, 1, 1, 4]
for n in pool.map(int2str, l): # map的结果可迭代
print(n, end='')
print('\ntest')
输出:
644476114
test
main进程被阻塞,test是最后打印的
1.1.5 p.map_async()
map_async(self, func, iterable, chunksize=None, callback=None,error_callback=None)
map()返回结果对象的方法的变体,异步执行,不阻塞main进程。返回值是ApplyResult。
from multiprocessing import Pool
import time
def show(x):
print(x)
time.sleep(0.5)
if __name__ == "__main__":
pool = Pool(processes=2)
pool.map_async(show, range(50))
time.sleep(1)
print('test')
输出:
0
7
1
8
test
可以看出,
map_async()在main进程停止后会跟着停止
【注】测试了一下,
map_async()方法比map()方法快大约2个数量级,不同电脑性能可能差距有所不同。
1.1.6 p.imap()
imap(func, iterable, chunksize=1)
①大体功能上和内置的map()方法的功能是一样的
②返回的是一个Generator,是一种lazier版本的map()方法
③该方法不会阻塞main进程,main进程结束,程序就结束
1.1.7 p.close()
防止向池提交任何其他任务。一旦所有任务完成,工作进程将退出
1.1.8 p.terminate()
立即停止工作进程而不完成未完成的工作。当池对象被垃圾收集时,terminate()将立即调用
1.1.9 p.join()
必须在close()之后执行。
必须等待进程池任务都结束,程序才能结束(相当于join住main进程)
1.2 ApplyResult(AsyncResult它的是别名)
Pool 中 apply_async() 和 map_async() 的方法返回值是 AsyncResult 的实例(或者是它子类的实例)obj。实例具有以下方法:
obj.get(timeout=None)
返回结果的值,如果设置timeout,则要在规定时间内返回结果,否则报错obj.ready()
如果Pool的方法调用完成,则返回Trueobj.successful()
如果调用完成且没有引发异常,返回True,如果在obj.ready()为True之前调用此方法,将引发异常obj.wait(timeout=None)
等待结果可用或超时秒过去
『Python』多进程的更多相关文章
- 『Python』多进程处理
尝试学习python的多进程模组,对比多线程,大概的区别在: 1.多进程的处理速度更快 2.多进程的各个子进程之间交换数据很不方便 多进程调用方式 进程基本使用multicore() 进程池优化进程的 ...
- 『Python』__getattr__()特殊方法
self的认识 & __getattr__()特殊方法 将字典调用方式改为通过属性查询的一个小class, class Dict(dict): def __init__(self, **kw) ...
- 『Python』优雅的记录日志——loguru
1. 安装 pip install loguru 2. 初识 from loguru import logger logger.debug("This is a debug..." ...
- 『Python』 ThreadPool 线程池模板
Python 的 简单多线程实现 用 dummy 模块 一句话就可以搞定,但需要对线程,队列做进一步的操作,最好自己写个线程池类来实现. Code: # coding:utf-8 # version: ...
- 『Python』Python 调用 ZoomEye API 批量获取目标网站IP
#### 20160712 更新 原API的访问方式是以 HTTP 的方式访问的,根据官网最新文档,现在已经修改成 HTTPS 方式,测试可以正常使用API了. 0x 00 前言 ZoomEye 的 ...
- 『Python』 多线程 共享变量的实现
简介: 对于Python2而言,对于一个全局变量,你的函数里如果只使用到了它的值,而没有对其赋值(指a = XXX这种写法)的话,就不需要声明global. 相反,如果你对其赋了值的话,那么你就需要声 ...
- 『Python』为什么调用函数会令引用计数+2
一.问题描述 Python中的垃圾回收是以引用计数为主,分代收集为辅,引用计数的缺陷是循环引用的问题.在Python中,如果一个对象的引用数为0,Python虚拟机就会回收这个对象的内存. sys.g ...
- 『Python』库安装
1.安装指定版本的tensorflow 虽然官网有4种安装方式,并且推荐用anaconda的方式,但是有时候我们需要指定版本的tensorflow,而pip可以做到. 比如我装的是anaconda3. ...
- 『Python』装饰器
一.参考 作者:zhijun liu 链接:https://www.zhihu.com/question/26930016/answer/99243411 来源:知乎 建议大家去原答案浏览 二.装饰器 ...
随机推荐
- Docker创建Docker-Registry客户端docker-registry-frontend
docker-compose.yml version: '3.1' services: frontend: image: konradkleine/docker-registry-frontend:v ...
- 【springcloud alibaba】注册中心之nacos
1.为什么需要注册中心 1.1 没有注册中心会怎么样 1.2 注册中心提供什么功能以及解决什么问题 2.常用的微服务注册中心对比 3.案例项目父工程 4.nacos作为注册中心的使用 4.1 单机版的 ...
- Map 综述(四):彻头彻尾理解 HashTable
摘要: Hashtable与HashMap都是Map族中较为常用的实现,也都是Java Collection Framework 的重要成员,它们的本质都是 链表数组.本文深入JDK源码并从定义.构造 ...
- 一招解决下载或下拉GitHub项目速度太慢的问题
相信很多朋友都有过这样的体验,就是从Github上下载或clone别人的项目时特别慢,甚至还会出现链接意外终止的情况,那么今天就来给大家分享一个提速的方法,步骤也非常简单,亲测有效! 首先进入你的目标 ...
- JAVA中直接用Jdbc就能操作数据库了,为什么还要用spring框架?
不过随着业务的扩展,你就会发现jdbc建立一个连接居然要几百毫秒,而执行一个普通的SQL仅仅需要几毫秒. 这么重量级的资源建立了就释放了不合适,得找个容器存起来,谁要就来取,不用了就还给容器,毕竟容器 ...
- ES6扩展——数组扩展
1.结合扩展运算符使用.通过扩展运算符,在调用函数的时候,把一个数组展开,然后作为这个函数的参数 //结合扩展运算符使用 function foo(a,b,c){ console.log(a); // ...
- Core3.1WebApi使用MongoDB
好久没有使用MongoDB了,重新测试使用,版本不一样之前很多方法都使用不了了,下面为部分测试,下次再来更新测试 测试中使用的命令 // 新增读写的用户 db.createUser({ user:'f ...
- elsa core—3.elsa 服务
在本快速入门中,我们将介绍一个用于设置Elsa Server的最小ASP.NET Core应用程序.我们还将安装一些更常用的activities(活动),如Timer.Cron和sendmail,以能 ...
- mpvue 生成字节跳动小程序的问题!!
初始化项目文件 $ vue init mpvue/mpvue-quickstart fuck $ cd fuck $ npm install 这个时候就初始化好了,接下来 $ npm run dev: ...
- jq的slideToggle效果
slideToggle() 方法通过使用滑动效果(高度变化)来切换元素的可见状态. 如果被选元素是可见的,则隐藏这些元素,如果被选元素是隐藏的,则显示这些元素. 例子:一个简单的下拉菜单效果----& ...