1. 死锁与递归锁

死锁:两个或者两个以上的进程或者线程在执行过程中,因争夺资源而造成的一种等待现象,称为死锁现象。

递归锁可以解决死锁现象。

递归锁有一个计数的功能,原数字为0,锁一次计数+1,释放一次,计数-1;只要数字不为0,其他线程就不能枪锁。

from threading import RLock
from threading import Thread
import time lock_A = lock_B = RLock() # 必须这样写 class MyThread(Thread): def run(self):
self.f1()
self.f2() def f1(self):
lock_A.acquire()
print(f'{self.name}抢到了A锁!')
lock_B.acquire()
print(f'{self.name}抢到了B锁!') lock_B.release()
lock_A.release() def f2(self):
lock_B.acquire()
print(f'{self.name}抢到了B锁!')
time.sleep(0.1)
lock_A.acquire()
print(f'{self.name}抢到了A锁!') lock_A.release()
lock_B.release() if __name__ == '__main__': for i in range(3):
t = MyThread()
t.start()

2. 信号量Semaphor

Semaphore管理一个内置的计数器,

每当调用acquire()时内置计数器-1;调用release() 时内置计数器+1;

计数器不能小于0;当计数器为0时,acquire()将阻塞线程直到其他线程调用release()。

能够控制同一时刻的线程数。

from threading import Thread, Semaphore, current_thread
import time
import random sem = Semaphore(5) # 设置同一时刻只能有5个线程并发执行 def task():
sem.acquire()
print(f'{current_thread().name}进程在运行')
time.sleep(random.random())
sem.release() if __name__ == '__main__':
for i in range(30):
t = Thread(target=task)
t.start()

3. GIL全局解释器锁:(Cpython)

​ Cpython规定,同一时刻只允许一个线程进入解释器,因为加了GIL。

​ 如果不加全局解释器锁,会出现死锁现象,开发此的程序员为了方便,在进入解释器时给线程加了一个全局解释器锁,这样保证了解释器内的数据安全

优点: 保证了Cpython解释器的数据资源的安全;

缺点: 单个进程的多线程不能利用多核cpu(缺陷)。

Jython、pypy解释器没有GIL全局解释器锁。

​ 流程:当线程遇到IO阻塞,cpu就会无情的被操作系统切走,GIL全局解释器锁被释放,线程挂起,另一个线程进入,这样可以实现并发。

总结

单个进程的多线程可以并发执行,但是不能利用cpu多核并行执行;

多个进程可以并发、并行执行。

4. IO、计算密集型对比

4.1 计算密集型:

​ 单个进程的多线程 VS 多个进程的并发、并行

from threading import Thread
from multiprocessing import Process
import time def task():
count = 0
for i in range(10000000):
count += 1 # 多线程并发
if __name__ == '__main__':
start_time = time.time()
l1 = []
for i in range(4):
p = Thread(target=task,)
l1.append(p)
p.start()
for p in l1:
p.join()
print(f'执行效率:{time.time()- start_time}') # 1.9125 # 多进程并发、并行
if __name__ == '__main__':
start_time = time.time()
l1 = []
for i in range(4):
p = Process(target=task,)
l1.append(p)
p.start()
for p in l1:
p.join()
print(f'执行效率:{time.time()- start_time}') # 0.86031 # 总结:
计算密集型:多进程并发、并行效率高。

4.2 IO密集型

单个进程的多线程 VS 多个进程的并发并行

from threading import Thread
from multiprocessing import Process
import time
import random def task():
count = 0
time.sleep(random.randint(1,3))
count += 1 if __name__ == '__main__': # 多进程并发、并行
start_time = time.time()
l1 = []
for i in range(50):
p = Process(target=task,)
l1.append(p)
p.start()
for p in l1:
p.join()
print(f'执行效率:{time.time()- start_time}') # 4.52878 # 多线程并发
start_time = time.time()
l1 = []
for i in range(50):
p = Thread(target=task, )
l1.append(p)
p.start()
for p in l1:
p.join()
print(f'执行效率:{time.time() - start_time}') # 3.00845 # 总结:
对于IO密集型:单个进程的多线程的并发效率高。

5. GIL与Lock锁的区别

相同点:都是互斥锁;

GIL: 保护解释器内部的资源数据的安全,释放无需手动操作;

Lock:自定义锁,保护进程中的数据资源安全。需要手动操作。

6. 多线程实现socket通信

服务端每连接到一个客户端时,都会开启一个线程进行通信。

# server端

from threading import Thread
import socket def accept():
server = socket.socket()
server.bind(("127.0.0.1", 8888))
server.listen(5) while 1:
conn, addr = server.accept()
# 连接一个开启一个线程
t = Thread(target=communication, args=(conn, addr))
t.start() def communication(conn, addr): while 1:
try:
from_client_data = conn.recv(1024)
print(f"来自客户端{addr}的消息:{from_client_data.decode('utf-8')}")
to_client_data = input(">>>").strip().encode("utf-8")
conn.send(to_client_data)
except Exception:
break
conn.close() if __name__ == '__main__':
accept()
# client端

import socket

client = socket.socket()
client.connect(('127.0.0.1', 8888)) while 1:
try:
to_server_data = input(">>>").strip().encode("utf-8")
client.send(to_server_data)
from_server_data = client.recv(1024)
print(f"来自客户端的消息:{from_server_data.decode('utf-8')}")
except Exception:
break
client.close()

7. 进程池、线程池

以时间换取空间。

​ 概念:定义一个池子,在里面放上固定数量的进程(线程),有需求来了,就拿一个池中的进程(线程)来处理任务,等到处理完毕,进程(线程)并不关闭,而是将进程(线程)再放回池中继续等待任务。如果有很多任务需要执行,池中的进程(线程)数量不够,任务就要等待之前的进程(线程)执行任务完毕归来,拿到空闲的进程(线程)才能继续执行。也就是说,池中进程(线程)的数量是固定的,那么同一时间最多有固定数量的进程(线程)在运行。这样不会增加操作系统的调度难度,还节省了开闭进程(线程)的时间,也一定程度上能够实现并发效果。

官网:https://docs.python.org/dev/library/concurrent.futures.html

from concurrent.futures import ProcessPoolExecutor, ThreadPoolExecutor
import os
import time
import random def task(i):
print(f"第{i}:{os.getpid()}开始执行!")
time.sleep(random.random()) if __name__ == '__main__': # 线程池
t = ThreadPoolExecutor() # 开启线程池 不写默认最大处理20个线程
for i in range(40):
t.submit(task, i+1) # 开启线程 # 进程池
p = ProcessPoolExecutor() # 开启进程池 不写默认处理cpu个数的进程
for i in range(20):
p.submit(task, i+1)

示例:使用线程池实现socket通信

# server端
from concurrent.futures import ThreadPoolExecutor
import socket def accept(): server = socket.socket()
server.bind(("127.0.0.1", 8888))
server.listen(5)
t = ThreadPoolExecutor(2) # 设置最大2个线程的线程池
while 1:
conn, addr = server.accept()
t.submit(communication, conn, addr) def communication(conn, addr): while 1:
try:
from_client_data = conn.recv(1024)
print(f"来自客户端{addr}的消息:{from_client_data.decode('utf-8')}") to_client_data = input(">>>").strip().encode("utf-8")
conn.send(to_client_data)
except Exception:
break
conn.close() if __name__ == '__main__':
accept()
# client端
import socket client = socket.socket()
client.connect(('127.0.0.1', 8888)) while 1:
try:
to_server_data = input(">>>").strip().encode("utf-8")
client.send(to_server_data)
from_server_data = client.recv(1024)
print(f"来自客户端的消息:{from_server_data.decode('utf-8')}")
except Exception:
break
client.close()

python 36 进程池、线程池的更多相关文章

  1. 《转载》Python并发编程之线程池/进程池--concurrent.futures模块

    本文转载自Python并发编程之线程池/进程池--concurrent.futures模块 一.关于concurrent.futures模块 Python标准库为我们提供了threading和mult ...

  2. python自带的线程池和进程池

    #python自带的线程池 from multiprocessing.pool import ThreadPool #注意ThreadPool不在threading模块下 from multiproc ...

  3. python并发编程-进程池线程池-协程-I/O模型-04

    目录 进程池线程池的使用***** 进程池/线程池的创建和提交回调 验证复用池子里的线程或进程 异步回调机制 通过闭包给回调函数添加额外参数(扩展) 协程*** 概念回顾(协程这里再理一下) 如何实现 ...

  4. Python学习之GIL&进程池/线程池

    8.6 GIL锁** Global interpreter Lock 全局解释器锁 实际就是一把解释器级的互斥锁 In CPython, the global interpreter lock, or ...

  5. Python并发编程05 /死锁现象、递归锁、信号量、GIL锁、计算密集型/IO密集型效率验证、进程池/线程池

    Python并发编程05 /死锁现象.递归锁.信号量.GIL锁.计算密集型/IO密集型效率验证.进程池/线程池 目录 Python并发编程05 /死锁现象.递归锁.信号量.GIL锁.计算密集型/IO密 ...

  6. Python标准模块--concurrent.futures 进程池线程池终极用法

    concurrent.futures 这个模块是异步调用的机制concurrent.futures 提交任务都是用submitfor + submit 多个任务的提交shutdown 是等效于Pool ...

  7. concurrent.futures模块(进程池/线程池)

    需要注意一下不能无限的开进程,不能无限的开线程最常用的就是开进程池,开线程池.其中回调函数非常重要回调函数其实可以作为一种编程思想,谁好了谁就去掉 只要你用并发,就会有锁的问题,但是你不能一直去自己加 ...

  8. Python-GIL 进程池 线程池

    5.GIL vs 互斥锁(*****) 1.什么是GIL(Global Interpreter Lock) GIL是全局解释器锁,是加到解释器身上的,保护的就是解释器级别的数据 (比如垃圾回收的数据) ...

  9. 13 并发编程-(线程)-异步调用与回调机制&进程池线程池小练习

    #提交任务的两种方式 #1.同步调用:提交完任务后,就在原地等待任务执行完毕,拿到结果,再执行下一行代码,导致程序是串行执行 一.提交任务的两种方式 1.同步调用:提交任务后,就在原地等待任务完毕,拿 ...

  10. 并发编程---线程queue---进程池线程池---异部调用(回调机制)

    线程 队列:先进先出 堆栈:后进先出 优先级:数字越小优先级越大,越先输出 import queue q = queue.Queue(3) # 先进先出-->队列 q.put('first') ...

随机推荐

  1. 浅谈hosts文件

    1.什么是hosts文件?这个文件在哪? hosts文件(域名解析文件)是将主机名映射到IP地址的一个纯文本文件,原始名称是HOSTS.TXT(IP,Internet Protocol,Interne ...

  2. cocos creator 小游戏区域截图功能实现

    截图是游戏中非常常见的一个功能,在cocos中可以通过摄像机和 RenderTexture 可以快速实现一个截图功能,具体API可参考:https://docs.cocos.com/creator/m ...

  3. org.mybatis.spring.MyBatisSystemException异常及处理

    org.mybatis.spring.MyBatisSystemException异常处理 测试场景 在测试springboot中使用MyBatis/通用Mapper的自定义方法时出现此异常. 异常如 ...

  4. 【Java中级】(三)IO

    1. 流分为字节流和字符流 2. 字节流下面常用的又有数据流和对象流 3. 字符流下面常用的又有缓存流 文件对象 文件和文件夹都用File表示 //file path : 文件的绝对路径或相对路径Fi ...

  5. 把Asp.net Core程序代码部署到Ubuntu(不含数据库)

    今天记录一下第一次把.net core 程序发布到linux系统.linux用的是ubuntu Server 18.04版本.运行的IDE是vs 2019,发布出来是.net core 2.2版本. ...

  6. Java基础之方法

    方法 某段代码经常使用,可以使用大括号将这段代码包括起来,起个名字,以后就使用这个名字来代替这段代码. 定义格式: 修饰符 返回值类型 方法名(参数列表) { 方法体语句:   return语句: } ...

  7. vue.js主要内容

    vue的主要内容 1.了解vue 2.vue开发环境的搭建和脚手架工具的使用 3.vue具体的指令和项目实战 1.了解vue 1.具备基础:html.css.js,模块化概念.ES6语法(简单即可) ...

  8. 在 Windows 上使用 Python 进行 web 开发

    本文由葡萄城技术团队于原创并首发 转载请注明出处:葡萄城官网,葡萄城为开发者提供专业的开发工具.解决方案和服务,赋能开发者. 上一篇我们介绍了在Windows 10下进行初学者入门开发Python的指 ...

  9. Spring源码解析——循环依赖的解决方案

    一.前言 承接<Spring源码解析--创建bean>.<Spring源码解析--创建bean的实例>,我们今天接着聊聊,循环依赖的解决方案,即创建bean的ObjectFac ...

  10. kubernetes离线包分析

    k8s离线包解析 产品地址 鸣谢 大家好,首先感谢大家对我们产品的支持,特别是一些老客户的持续支持,让我可以有动力把这个事情持续进行下去. 感谢大家对付费产品的认可,尊重付费 产品介绍 我们专注于k8 ...