Python_多进程
Python 多进程库 multiprocessing ,支持子进程、通信、数据共享、执行不同形式的同步
多进程,绕过gil ,实现多核的利用,多进程也是原生进程,由操作系统维护
在pycharm中,可能没有办法正常使用multiprocessing.Process,最好是在Linux中运行
| Process | 用于创建进程模块 |
| Pool | 用于创建管理进程池 |
| Queue | 用于进程通信,资源共享 |
| Pipe | 用于管道通信 |
| Manager | 用于资源共享,同步进程 |
1.Process类
Process(group = None,target =None,name=None, args=[ ], kwargs={ })
| group | 线程组 |
| target | 要执行的方法 |
| name | 进程名 |
| args/kwargs | 要传入方法的参数 |
process属性&方法:
| authkey | 进程的身份验证密钥 |
| daemon | 同thread的setDaemon,守护进程 |
| exitcode | 进程运行时为None,若为—N,则表示被信号N结束 |
| pid | 进程号 |
| name | 进程名 |
| is_alive() | 返回进程是否正在运行 |
| join([timeout]) | 阻塞到线程结束或到timeout值 |
| start() | 进程准备就绪,等待CPU调度 |
| run() | start()调用run方法,如果实例进程时未制定传入target,start执行默认run()方法。 |
| terminate() | 不管任务是否完成,立即停止工作进程 |
多进程的创建:
#!/usr/bin/python
# -*- coding:utf-8 -*-
'''多进程的创建'''
from multiprocessing import Process
import time def fun(name):
time.sleep(1)
print('hello,%s' % name)
print('----') if __name__ =='__main__':
for i in range(5): # 进程同步
p = Process(target=fun, args=('Presley',))
p.start()
p.join()
print('结束。')
多进程
进程id :
#!/usr/bin/python3
# -*- coding:utf-8 -*- from multiprocessing import Process
import os
def info(title):
print(title)
print('moudle name :',__name__)
print('parent process id ', os.getppid())
print('process id ', os.getpid()) if __name__ =='__main__':
info('hei. ') # pycharm id和 主进程id
for i in range(3):
p = Process(target=info, args=('Presley',)) # 主进程id 和 info 子进程id
p.start()
p.join()
hei.
moudle name : __main__
parent process id 1610
process id 1826
Presley
moudle name : __main__
parent process id 1826
process id 1827
Presley
moudle name : __main__
parent process id 1826
process id 1828
Presley
moudle name : __main__
parent process id 1826
process id 1829
result
2.Queue类
不同进程间内存是不共享的,想要实现两个进程间的数据交换,可以用Queue进行进程间通讯
queue是在多进程中做了一层封装的队列,以保证在当前进程里进程安全
方法:queue
进程中的队,以保证进程安全
from multiprocessing import Process,Queue
def info(q):
# global q # 错误,queue中 ,global 不行,因为子进程无法访问父进程的内存数据
q.put([34, None, 'yes']) if __name__ =='__main__':
q = Queue()
for i in range(3):
p = Process(target=info, args=[q,]) # 多个子进程的数据可以都可以放父进程数据
p.start()
print('来自父进程%s:%s'%(i, q.get()))
p.join()
多进程_queue
来自父进程0:[34, None, 'yes']
来自父进程1:[34, None, 'yes']
来自父进程2:[34, None, 'yes']
result
3.Pipe类
管道操作(双向队列):会返回一对对象,管道的两端分别赋给子进程和父进程
和队列操作差不多,所以一般运用队列较多
方法:
| send() | 发送序列 |
| recv() | 接收序列 |
| fileno() | 返回一个整型的文件描述符 |
| close() | 退出 |
| poll() | 判断子进程是否结束 |
| send_bytes() | 以bytes格式发送序列 |
| recv_bytes() | 以bytes格式接收序列 |
from multiprocessing import Process,Pipe
import time
def info(conn):
time.sleep(0.5)
conn.send([32,None,'ni hao wa']) conn.close() if __name__=='__main__':
conn_parent ,conn_child = Pipe()
print(conn_parent.fileno()) for i in range(3):
p = Process(target=info,args=(conn_child,))
print(bool(conn_child.poll)) # 进程是否结束
p.start()
# 如果没有消息可接收,recv方法会一直阻塞。如果管道已经被关闭,那么recv方法会抛出EOFError。
print('父端接收%s:%s'% (i,conn_parent.recv())) p.join()
多进程_Pipe
200
True
父端接收0:[32, None, 'ni hao wa']
True
父端接收1:[32, None, 'ni hao wa']
True
父端接收2:[32, None, 'ni hao wa']
result
4.Manager
通过Manager可以简单的使用list,dict,Namespace,Lock,RLock,Semaphore,BoundedSemaphore,Condition,Event,Barries,Value+Arrary等类型的高级接口
Manager()返回的manager对象控制了一个server进程,此进程包含的python对象可以被其他的进程通过proxies来访问。从而达到多进程间数据通信且安全
例:对list,dict的应用例子:
#!/usr/bin/python3
# -*- coding:utf-8 -*-
from multiprocessing import Process,Manager def fun(d,l,n):
d[2] = ''
d['e'] = 'e'
d[34] = None
l.append(n)
print(l) if __name__ == '__main__':
with Manager() as manager:
d = manager.dict()
l = manager.list()
join_list = []
for i in range(6):
p = Process(target=fun, args=(d,l,i))
p.start()
join_list.append(p)
for res in join_list:
res.join()
print(l)
print(d)
example
[5]
[5, 2]
[5, 2, 3]
[5, 2, 3, 0]
[5, 2, 3, 0, 4]
[5, 2, 3, 0, 4, 1]
[5, 2, 3, 0, 4, 1]
[5, 2, 3, 0, 4, 1]
[5, 2, 3, 0, 4, 1]
[5, 2, 3, 0, 4, 1]
[5, 2, 3, 0, 4, 1]
[5, 2, 3, 0, 4, 1]
{2: '', 'e': 'e', 34: None}
result
Manager的详细参考:https://www.aliyun.com/jiaocheng/490316.html
5.Pool 类(进程池)
当进程数过多时,用于限制进程数
异步:进程并行
同步:进程串行
方法:
| apply_async(func,args,kwds,callback) |
进程异步,并行(func:执行一个函数,args/ dwds:进程参数,callback:Foo执行结果返回到callback执行的函数中) |
| apply(func,args,kwds) | 进程同步,串行 |
| close() | 关闭进程池 |
| terminate() | 结束工作进程,不在处理未完成的任务 |
| join() | 主进程阻塞,等待子进程执行完毕 |
from multiprocessing import Pool,freeze_support
import time def Foo(i):
time.sleep(1)
print('exec..')
return i+100 # 返回到Bar中 def Bar(arg):
print('来自Foo 的i :',arg) # 接收 Foo中 的返回值 if __name__ == '__main__':
freeze_support() # 仅在Windows上才导入此模块进程程序才不会出错,Linux上不用
pool = Pool(5) # 限制每次进行的进程数为 5
for i in range(10):
pool.apply_async(func=Foo, args=(i,),callback=Bar) # 进程异步 # callback 把前面func的放在Bar中打印
# pool.apply(func=Foo, args=(i,)) # 同步,串行 # 没有callback属性
print('结束。。')
pool.close() # 注意:join必须放在close()后面,否则将不会等待子进程打印结束,而直接结束
pool.join()
进程池
结束。。
exec..
exec..
exec..
exec..
exec..
来自Foo 的i : 104
来自Foo 的i : 102
来自Foo 的i : 103
来自Foo 的i : 100
来自Foo 的i : 101
exec..
exec..
exec..
exec..
exec..
来自Foo 的i : 105
来自Foo 的i : 106
来自Foo 的i : 107
来自Foo 的i : 108
来自Foo 的i : 109
异步结果
exec..
exec..
exec..
exec..
exec..
exec..
exec..
exec..
exec..
exec..
结束。。
同步结果
Python_多进程的更多相关文章
- Python_多进程_pool进程池
多进程典型案例: 1.将子进程的进程名作为列表中的元素,在父进程中遍历(异步)执行 #coding: utf-8 from multiprocessing import Pool import os, ...
- python_并发编程——多进程的第二种启动方式
1.多进程的第二种启动方式 import os from multiprocessing import Process # 创建一个自定义类,继承Process类 class MyProcess(Pr ...
- python_并发编程——多进程
from multiprocessing import Process import os def func1(): print('子进程1',os.getpid()) #子进程:获取当前进程的进程号 ...
- python_多线程多进程
多线程,适用于IO密集型任务 IO,input,output缩写,包括网路io(比如上传下载),磁盘io,(比如数据库读写),CPU操作不频繁 多进程,适用于CPU密集型任务 数据分析,算法,依赖CP ...
- Python中的多进程与多线程(一)
一.背景 最近在Azkaban的测试工作中,需要在测试环境下模拟线上的调度场景进行稳定性测试.故而重操python旧业,通过python编写脚本来构造类似线上的调度场景.在脚本编写过程中,碰到这样一个 ...
- 取代SharedPreferences的多进程解决方案
Android的SharedPreferences用来存储一些键值对, 但是却不支持跨进程使用. 跨进程来用的话, 当然是放在数据库更可靠啦, 本文主要是给作者的新库PreferencesProvid ...
- python 多进程使用总结
python中的多进程主要使用到 multiprocessing 这个库.这个库在使用 multiprocessing.Manager().Queue时会出问题,建议大家升级到高版本python,如2 ...
- Nginx深入详解之多进程网络模型
一.进程模型 Nginx之所以为广大码农喜爱,除了其高性能外,还有其优雅的系统架构.与Memcached的经典多线程模型相比,Nginx是经典的多进程模型.Nginx启动后以daemon ...
- Python的多线程(threading)与多进程(multiprocessing )
进程:程序的一次执行(程序载入内存,系统分配资源运行).每个进程有自己的内存空间,数据栈等,进程之间可以进行通讯,但是不能共享信息. 线程:所有的线程运行在同一个进程中,共享相同的运行环境.每个独立的 ...
随机推荐
- nginx 80 端口 部署多个Web
1.修改默认nginx.conf 文件 加入 include /usr/www/ngconfs/*.conf; 读取ngconfs文件下所有 *.conf文件 2.ngconfs 下多个文件创建 第二 ...
- git仓库构建小记
1.新建 .git 文件夹 约定的文件目录下,新建 .git 文件夹 mkdir test.git 2.初始化服务端仓库 git init --bare test.git 此时进入 test.git ...
- cogs2479 偏序(CDQ套CDQ)
题目链接 思路 四维偏序 \(CDQ\)套\(CDQ\),第一维默认有序.第二维用第一个\(CDQ\)变成有序的.并且对每个点标记上第一维属于左边还是右边.第二个\(CDQ\)处理第三维,注意两个\( ...
- 【洛谷P1134 阶乘问题】
[传送门] #include<bits/stdc++.h> using namespace std; int main() { ; cin>>a; ;i<=a;i++) ...
- com.android.support:appcompat-v7:27.+问题解决
新建的项目就报下面的错误,问题指向了app/build.gradle,看起来是版本兼容的问题. 解决方案: 1.查看sdk tools的版本:26.1.1 远程依赖包是27.+,而我们的s ...
- EM算法(Expectation Maximization Algorithm)初探
1. 通过一个简单的例子直观上理解EM的核心思想 0x1: 问题背景 假设现在有两枚硬币Coin_a和Coin_b,随机抛掷后正面朝上/反面朝上的概率分别是 Coin_a:P1:-P1 Coin_b: ...
- 09--STL关联容器(map/multimap)
一:map/multimap的简介 map是标准的关联式容器,一个map是一个键值对序列,即(key,value)对.它提供基于key的快速检索能力. map中key值是唯一的.集合中的元素按一定的顺 ...
- Maven 学习总结(三) 之 依赖管理
聚合 为了要一次构建多个项目,而不是到每个模块目录下分别执行mvn命令.maven聚合这一特性就是为该需求服务的.为此我们需要创建一个额外的模块aggregator, 然后通过该模块构建整个项目的所有 ...
- EF CodeFirst系列(6)---配置1对1,1对多,多对多关系
这一节介绍EF CodeFirst模式中的1对0/1,1对多,多对多关系的配置,只有梳理清楚实体间的关系,才能进行愉快的开发,因此这节虽然很简单但是还是记录了一下. 1. 1对0/1关系配置 1. 通 ...
- django - 总结 - cnblog 知识点
1.图像预览 点击头像------>点击input img和input重合; img在label,input-->display:none $("#avatar").c ...