在进入主题之前,我们先学习一下并发和并行的概念:

--并发:在操作系统中,并发是指一个时间段中有几个程序都处于启动到运行完毕之间,且这几个程序都是在同一个处理机上运行。但任一时刻点上只有一个程序在处理机上运行。形象的点描述:一个人做很多事情,但同一时刻只能做一件事情。

--并行:当系统有一个CPU时,则程序的操作有可能非并发。当一个CPU执行一个程序时,另一个CPU可以执行另一个程序,两个程序互不抢占CPU资源,可以同时进行。形象的描述:多人同时做多件事情

可能有小伙伴又会问串行又是什么鬼呢?再来唠叨一下:

串行和并行是数据传输方式的区别。其实和并发和并行的概念是两个领域:

1、数据传输方式不同,串行口传输方式为数据排成一行,一位一位送出,接受也是一样。并行口传输8位数据一次送出。

2、针脚不同,串行口针脚少,并行口针脚多

3、用途不同,串行口现在只用作控制接口,并行口多用作打印机、扫描仪等接口。

来吧,进入正题:

进程的概念:计算机程序其实只是存储在磁盘上可执行的二进制(或其他可执行的类型)文件。只有把它们加载到内存中并被操作系统调用,才算是被执行,并用拥有生命周期。所以说进程是一个执行中的程序。

每个进程都拥有自己的地址空间,内存,数据栈以及其他用于跟踪执行的辅助数据。

此间,操作系统管理其上的所有进程的执行,并为这些进程合理分配时间。

多进程:那就是在一个多核的电脑上同时运行多个程呗,其实是实现并行。

但是呢,我们先从多线程学习起。多线程搞定了,多进程也就是小意思了。

在此之前先介绍一个概念,之后会用到。GIL锁,有可能大家会听到别人说python运行很慢啥的,其实就是这个GIL锁的原因,那它到底是个啥呢:

GIL全局解释性锁,python在设计的时候,还没有多核处理器的概念。因此,为了设计的方便和线程的安全,python之父就设计了一个锁。这个锁要求,任何一个进程中,同时只能有一个线程在执行。因此并不能多个线程分配多个CPU资源。所以python中的线程只能实现并发,而不能实现真正的并行,这就是python所线程的局限性。在python3中GIL锁进行了该井,在遇到任何IO阻塞(不是耗时)的时候,会自动切换线程,这就使得在进行多IO操作的时候python的锁多线程有很大的优势。同时一个线程在运行时间或者运行步骤达到一定的阈值时,也会自动的切换线程。

对比于多进程,多线程其实是实现并发的操作,在在python中使用multiprocessing包实现多进程:

首先来看下多线程的实现,这里使用的是threading包。用sleep模拟耗时操作:

 import time
import threading def get_detail_html(url):
print("starting get detail html")
time.sleep(4)
print("ending get detail html") def get_detail_url(url):
print("starting get detail url")
time.sleep(2)
print("ending get detail url") if __name__ == '__main__':
thread1 = threading.Thread(target=get_detail_html, args=("",))
thread2 = threading.Thread(target=get_detail_url, args=("",))
start_time = time.time()
thread1.setDaemon(True)
thread2.setDaemon(True)
thread1.start()
thread2.start()
print(123456)
thread1.join()
thread2.join()
25    print("using time: {}".format(time.time()-start_time)

做个注释吧,可能有点乱:

1、在子线程sleep时候,主线程继续往下执行,主线程执行完,程序此刻并没有退出。子线程的程序还是会执行完。

2、为了在主线程执行完之后kill掉子线程。需要给子线程.setdeDaemon(True)。将子线程设置为守护线程。意思为:主线程结束后设置为守护线程的子线程也会义无反顾的殉情而亡当有多个子线程,其中部分设置守护线程。主线程会等到没有设置为守护线程的子线程运行完之后推出而设置为守护线程的子线程,如果在未设置为守护线程的子线程结束前运行完毕,那万事大吉,如果没有运行完成还是跟着主线程殉情

3、如果想让主线程等待子线程执行完成再往下面执行的话,用thread1.join()。将主线程阻塞住,也就是说.join()之后的主线程代码不会执行,直到子线程执行完毕再执行这个时候的using time 就是4秒钟。如果只有部分子线程阻塞,那么阻塞时间就是设置了.join()的子线程运行的时间。然后主线程结束,但是还是会等到所有子线程运行结束后主线程才会退出

上边是使用函数的方法实现多线程,那用类呢?可定也能实现咯:

import time
import threading # 用类实现多线程
class GetDetailHtml(threading.Thread):
"""
继承threading.Thread类
"""
def __init__(self, name):
# 给调用父类init方法线程命名
super().__init__(name=name)
def run(self):
"""
重写run方法
:return:
"""
print("starting get detail html")
time.sleep(4)
print("ending get detail html")
class GetDetailUrl(threading.Thread):
def __init__(self, name):
# 给调用父类init方法线程命名
super().__init__(name=name)
def run(self):
print("starting get detail url")
time.sleep(2)
print("ending get detail url")
if __name__ == '__main__':
thread1 = GetDetailHtml('get_detail_html')
thread2 = GetDetailUrl('get_detail_url')
start_time = time.time()
thread1.start()
thread2.start()
thread1.join()
thread2.join()
print('used time: {}'.format(time.time() - start_time))

只需要重写类的run方法即可,其他和函数方法使用一样。

如果多个线程需要用到相同的数据咋办呢?这就涉及到线程间的通信问题了,接下来我们来详细的了解一下。

方法一:利用共享变量的方式,嗯,也就是全局变量global。

import time
import threading
# 1、共享全局变量 使用global。
detail_url_list = []
def get_detail_html():
global detail_url_list
# 使用for循环,这样子做得话并发不高
# for url in detail_url_list:
# print("starting get detail html")
# time.sleep(4)
# print("ending get detail html")
# 使用pop操作,并开启多个get_detail_html的子线程进行处理。但是线程是不安全的
url = detail_url_list.pop()
print("starting get detail html")
time.sleep(4)
print("ending get detail html") def get_detail_url():
global detail_url_list
print("starting get detail url")
time.sleep(2)
for i in range(20):
detail_url_list.append(i)
print("ending get detail url") if __name__ == '__main__':
thread1 = threading.Thread(target=get_detail_html, args=("",))
thread2 = threading.Thread(target=get_detail_url, args=("",))
start_time = time.time()
thread1.start()
thread2.start()thread1.join()
thread2.join()
print("using time: {}".format(time.time() - start_time))

这个很容易理解,用起来也很方便。可以帮我们快速的解决比较简单的问题。

方法二:利用队列queue。。比价高级点的用法。先看实现方式。

import time
import threading
from queue import Queue, PriorityQueue #可以设置优先级的queue,调整执行顺序 def get_detail_html(queue):
while True:
url = queue.get()
print("starting get detail html")
time.sleep(4)
print("ending get detail html") def get_detail_url(queue):
while True:
print("starting get detail url")
time.sleep(2)
for i in range(20):
queue.put(i)
print("ending get detail url") if __name__ == '__main__':
detail_url_queue = Queue(maxsize=10)
thread1 = threading.Thread(target=get_detail_html, args=(detail_url_queue,))
thread2 = threading.Thread(target=get_detail_url, args=(detail_url_queue,))
start_time = time.time()
thread1.start()
thread2.start()thread1.join()
thread2.join()
print("using time: {}".format(time.time() - start_time))

简单的说就是:put往queue里放东西,get从queue里拿东西。这样就能达到线程间的通信以及线程安全。

既然线程中的数据大家都能用,会不会出现一个线程在修改数据,结果在还没有修改完之后,GIL锁已经被切换。切换后的线程也修改这个数据,那就会出现数据的错乱,脏数据。针对这种情况,python中的lock就完美的解决了这个情况。

from threading import Lock, RLock  #可重入锁
#RLock使得一个线程中,可以连续调用多次acquire,但是的有相对应数量的release
import threading total = 0
lock = Lock()
"""
1、用锁会影响性能
2、锁会引起死锁 1、acquire之后没有release
2、线程相互等待 两个数据被两个线程分别获取,相互等待对方的资源释放
"""
def add(lock):
global total
for i in range(1000000):
     # 上锁
lock.acquire()
total += 1
     # 释放锁
lock.release() def desc(lock):
global total
for i in range(1000000):
     # 上锁
lock.acquire()
total -= 1
# 释放锁
lock.release()
thread1 = threading.Thread(target=add, args=(lock,))
thread2 = threading.Thread(target=desc, args=(lock,))
thread1.start()
thread2.start()
thread1.join()
thread2.join()
print(total)

针对一般情况下我们lock就可以搞定问题,那有没有更牛逼的工具让我们应对更加复杂的情况呢?答案当然是肯定的:

conditon:条件变量,用于复杂的线程间同步的锁

import threading
# condition(条件变量)是用于复杂的线程间同步的锁
from threading import Condition cond = Condition()
class XiaoAi(threading.Thread):
def __init__(self, cond):
super(XiaoAi, self).__init__(name="小爱")
self.cond = cond def run(self):
# with是一个魔法方法,相当于先上锁操作完之后再解锁,和with open相似
with self.cond:
# 等待状态,等着接受通知,接到通知后往下放执行
self.cond.wait()
print("{} : 在".format(self.name))
# 发送通知
self.cond.notify()
# 等待状态,等着接受通知,接到通知后往下放执行
self.cond.wait()
print("{} : 好啊".format(self.name)) class TianMao(threading.Thread):
def __init__(self, cond):
super(TianMao, self).__init__(name="天猫")
self.cond = cond def run(self):
with self.cond:
print("{} : 小爱在么?".format(self.name))
# 发送通知
self.cond.notify()
# 等待状态,等着接受通知,接到通知后往下放执行
self.cond.wait() print("{} : 我们来对古诗吧!".format(self.name))
# 发送通知
self.cond.notify() if __name__ == '__main__':
xiaoai = XiaoAi(cond)
tianmao = TianMao(cond) xiaoai.start()
tianmao.start() xiaoai.join()
tianmao.join()

在condition中我们可以运行任意多的线程。那么如果我们想控制线程的数量该怎么办呢?针对这个场景python也是给我们一个工具的:

semaphore 是控制进入数量的锁, 基于condition实现

# semaphore 是控制进入数量的锁, 基于condition实现
# 文件的读写,写一般只有一个线程写,读可以允许多个 # 爬虫,控制爬虫的数量
import threading
import time class HtmlSpider(threading.Thread):
def __init__(self, url, sem):
super().__init__()
self.url = url
self.sem = sem def run(self):
time.sleep(2)
print('get html text success')
# 释放锁, 一共释放3次
self.sem.release()
class UrlProducer(threading.Thread):
def __init__(self, sem):
super().__init__()
self.sem = sem
def run(self):
for i in range(20):
# 调用一次,次数减一,为0时,线程锁住
self.sem.acquire()
html_thread = HtmlSpider("https://baidu.com/{}".format(i), self.sem)
html_thread.start()
if __name__ == '__main__':
sem = threading.Semaphore(3)
url_producer = UrlProducer(sem)
url_producer.start()

是不是常听说线程池?那这个池子到底是个啥呢?当然是放线程的池子呗!!在python中是用

ThreadPoolExecutor来实现线程池的!!
第一种用法:
from concurrent.futures import (
wait, # 使主线程阻塞
ThreadPoolExecutor, # 线程池
as_completed, #是一个生成器
Future # 未来对象, task的返回容器
) """
线程池
主线程中可以获取某一个线程的状态或者某一个任务的状态,以及返回值
当一个线程完成的时候主线程能够立刻知道
futures可以让多线程和多进程接口一致
"""
import time def get_html(times):
time.sleep(times)
print('get page {} success'.format(times))
return times executor = ThreadPoolExecutor(max_workers=2) # 通过submit函数提交的函数到线程池中,submit是立刻返回的
task1 = executor.submit(get_html, (3))
task2 = executor.submit(get_html, (2)) # done 用于判定某个任务是否完成
print(task1.done())
# cancle取消该线程,取消成功返回True,失败返回False 注意:线程在执行过程中不能被取消
# 此时开启两个线程,所以task1和task2添加之后立刻运行,因此取消不成功
print(task2.cancel())
time.sleep(3)
print(task1.done()) # 可以获取task1的执行结果
print(task1.result()) """
# 通过executor 的map(yield task的返回值)获取已经完成的task值
for data in executor.map(get_html, urls):
print('future get {} page'.format(data))
"""

第二种用法:

from concurrent.futures import (
wait, # 使主线程阻塞
ThreadPoolExecutor, # 线程池
as_completed, #是一个生成器
Future # 未来对象, task的返回容器
)
import time def get_html(times):
time.sleep(times)
print('get page {} success'.format(times))
return times
executor = ThreadPoolExecutor(max_workers=2) # 获取已经成功的task
urls = [3, 3, 2, 4, 8]
# 添加到excutor之后子线程立刻开始执行
all_tasks = [executor.submit(get_html, (url)) for url in urls]
# 使主线程阻塞,所有子线程执行完成后主线程再往下边执行
wait(all_tasks)
print(12314123)
# as_completed 的代码块和子线程的执行并不是同步的
for future in as_completed(all_tasks):
data = future.result()
print('get {} page 111111'.format(data))

第三种用法:

from concurrent.futures import (
wait, # 使主线程阻塞
ThreadPoolExecutor, # 线程池
as_completed, #是一个生成器
Future # 未来对象, task的返回容器
)
import time def get_html(times):
time.sleep(times)
print('get page {} success'.format(times))
return times executor = ThreadPoolExecutor(max_workers=2)
# 通过executor 的map(yield task的返回值)获取已经完成的task值
for data in executor.map(get_html, urls):
print('future get {} page'.format(data))

好了多线程就讲这么多吧,有点粗糙,更多的细节以后再补充吧! 下一篇记录一下多进程!!

python的多线程和多进程(一)的更多相关文章

  1. Python之多线程和多进程

    一.多线程 1.顺序执行单个线程,注意要顺序执行的话,需要用join. #coding=utf-8 from threading import Thread import time def my_co ...

  2. Python的多线程和多进程

    (1)多线程的产生并不是因为发明了多核CPU甚至现在有多个CPU+多核的硬件,也不是因为多线程CPU运行效率比单线程高.单从CPU的运行效率上考虑,单任务进程及单线程效率是最高的,因为CPU没有任何进 ...

  3. Python【多线程与多进程】

    import time,threading print("=======串行方式.并行两种方式调用run()函数=======")def run(): print('哈哈哈') # ...

  4. python的多线程、多进程代码示例

    python多进程和多线程的区别:python的多线程不是真正意义上的多线程,由于python编译器的问题,导致python的多线程存在一个PIL锁,使得python的多线程的CPU利用率比预期的要低 ...

  5. selenium +python之多线程与多进程应用于自动化测试

    多线程与多进程与自动化测试用例结合起来执行,从而节省测试用例的总体运行时间. 多线程执行测试测试用例 以百度搜索为例,通过不同的浏览器来启动不同的线程. from selenium import we ...

  6. Python之多线程与多进程(二)

    多进程 上一章:Python多线程与多进程(一) 由于GIL的存在,Python的多线程并没有实现真正的并行.因此,一些问题使用threading模块并不能解决 不过Python为并行提供了一个替代方 ...

  7. Python之多线程与多进程(一)

    多线程 多线程是程序在同样的上下文中同时运行多条线程的能力.这些线程共享同一个进程的资源,可以在并发模式(单核处理器)或并行模式(多核处理器)下执行多个任务 多线程有以下几个优点: 持续响应:在单线程 ...

  8. Python中多线程与多进程的恩恩怨怨

    概念: 并发:当有多个线程在操作时,如果系统只有一个CPU,则它根本不可能真正同时进行一个以上的线程,它只能把CPU运行时间划分成若干个时间段,再将时间 段分配给各个线程执行,在一个时间段的线程代码运 ...

  9. python的多线程、多进程、协程用代码详解

    前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者:刘早起早起 PS:如有需要Python学习资料的小伙伴可以加点击下方链 ...

随机推荐

  1. JAVA设计模式---单例模式篇

    单例模式(singleton):是JAVA中最简单的一种设计模式,属于创建型模式.所谓单例,就是整个程序有且仅有一个实例. 特点: 构造方法私有化 在本类中实例化一个对象作为本类的属性 对外提供一个访 ...

  2. Kubernetes 系列(八):搭建EFK日志收集系统

    Kubernetes 中比较流行的日志收集解决方案是 Elasticsearch.Fluentd 和 Kibana(EFK)技术栈,也是官方现在比较推荐的一种方案. Elasticsearch 是一个 ...

  3. vmware上安装centos7虚拟机

    1.1 Linux 的安装 安 装 采 用 在 虚 拟 机 中 安 装 , 以 方 便 不 同 班 级 授 课 时 , 需 要 重 复 安装的情况. 1.1.1 配置虚拟机 1. 在 VMware W ...

  4. dedecms5.7最新漏洞修复

    最近发现织梦cms被挂马现象频繁,解决好好几个网站的问题,但是过不了多久,就又被攻击了,即使更改系统及ftp密码,也没有起到防御的作用,最后怀疑cms本身漏洞,于是采用工具扫描了一下,才发现问题的严重 ...

  5. 在ZYBO板卡上实现PL-PS交互(通过AXI的方式)

    前情提要:参考的是下面所说的原网页,只是原作者用的是vivado 2014.4,我用vivado 2018.2跑的,图是新的,内容大多“换汤不换药”,但是我在做的时候存在一些问题,我记录了下来并将解决 ...

  6. Hadoop 学习笔记之 Incompatible namespaceIDs问题

    Hadoop重新格式化后,仍然datanode启动失败,查看log: org.apache.hadoop.hdfs.server.datanode.DataNode: Java.io.IOExcept ...

  7. linux shell 统计当前目录下的文件个数

    shell 统计当前目录下文件个数,使用管道组合命令: ls -1 | wc -l 解释: ls -1 表示一行一个列出文件名. wc -l 表示打印统计的行数. 两个命令通过管道连在一起表示打印列出 ...

  8. Python 必备面试基础知识-3

    今天继续分享 Python 相关的面试题,你准备好了嘛! 网络编程篇 1. 简述 OSI 七层协议 是网络传输协议,人为的把网络传输的不同阶段划分成不同的层次. 七层划分为:应用层.表示层.会话层.传 ...

  9. mysql配置默认字符集为UTF8mb4

    [client] default-character-set=utf8mb4 [mysqld] character-set-server = utf8mb4 collation-server = ut ...

  10. 常用css总结

    个人博客: https://chenjiahao.xyz 1.让网站快速变灰 html { filter: grayscale(100%);//IE浏览器 -webkit-filter: graysc ...