Python 多线程并发程序设计与分析
多线程并发程序设计与分析
by:授客 QQ:1033553122
1.技术难点分析与总结
难点1:线程运行时,运行顺序不固定
难点2:同一段代码,再不加锁的情况下,可能被多个线程同时执行,这会造成很多麻烦,比如变量的赋值不正确,方法的重复调用,而如果加锁,或者通过join阻塞方式等来控制,那么又如同运行单进程,效率低下,达不到,“并发”,“高速”的效果。
难点3:不通过join阻塞等方式,主线程可能会优先于子线程退出,这也会导致问题,比如子线程还在用文件句柄,主线程就把文件关闭了。
解决方法:
1、考虑为线程类添加变量属性,这样一来,每个线程都拥有自己的变量,互不影响,比如下面例子中用到的run_times
2、线程公用的一些变量,也可以考虑通过线程类的变量属性传递,比如下面例子中多线程用到的文件句柄file_handler
3、必要时,关键代码可以考虑枷锁Lock、RLock,具体自己看官方文档,比如下方的文件写入,不同线程可能会在同一行写入数据,导致数据统计时不准确,所以加锁,如果出于速度考虑,可以考虑分别给每个线程传递属于自己的文件句柄,写入不同的文件,
4、清理工作,关于这个,需要知道2点:
1)main线程退出时,不会kill非守护线程,但是会kill守护线程
2)通常,子线程start()后会去调用run方法,运行完run方法,子线程停止执行,不会继续运行之后的代码。
所以,通常我们可以这么做,获取当前活动线程数,如果线程数为1,则说明子线程都运行完,可以继续后面的代码清理工作,否则继续循环检测,这里还可以加代码优化,比如每隔一段时间检测一次,以免主线程浪费系统资源
# 利用主线程执行清理工作
current_active_thread_num
=
len(threading.enumerate())
# 获取当前活动线程数量
while
current_active_thread_num
!= :
) #
每10秒检测一次
current_active_thread_num
=
len(threading.enumerate())
2.代码实践
requestpy.py
#!/usr/bin/env python
#
-*- coding:utf-8 -*-
__author__
=
'shouke'
import
urllib.request
import
json
import
sys
import
threading
from
collections
import
Counter
import
time
import
datetime
class
SubThread(threading.Thread):
mutex_lock
= threading.RLock()
def
__init__(self,
file_handler):
self.file_handler
= file_handler
self.run_times
=
# 记录每个线程的运行次数
threading.Thread.__init__(self)
def
run(self):
while
self.run_times
<</span>
int]):
url
=
'http://xxxxxx/xxxxxcard/kq/codepool/test/'
request
= urllib.request.Request(url,
method='POST')
try:
response
= urllib.request.urlopen(request)
response_body
= response.read()
response_body
= response_body.decode('utf-8')
response_body
= json.loads(response_body)
#
写入文件
SubThread.mutex_lock.acquire()
self.file_handler.write(str(response_body['code']))
self.file_handler.write('\n')
SubThread.mutex_lock.release()
self.run_times
=
self.run_times
+
# 记录每个线程的运行次数
print('已经执行%s次请求'
%
str(self.run_times))
except
Exception
as
e:
print('请求错误%s'
% e)
def
analyze(test_result_data):
list_data
= []
#
存放目标数据
total_line_count
=
0 #
读取的文本行数
abnormal_line
=
0
#
存放异常数据行数
digit_line
=
0
#
存放正确数据函数
with
open(test_result_data,
'r')
as
file:
line
= file.readline()
while
line:
line
= line.strip('\n')
if
line.isdigit()
and
len(line)
== :
list_data.append(int(line))
digit_line
= digit_line +
else:
abnormal_line
= abnormal_line +
print('服务器返回数据异常')
line
= file.readline()
total_line_count
= total_line_count +
print('读取的总行数:%s'
%
str(total_line_count))
print('数据正确的行数:%s'
%
str(digit_line))
print('数据异常的行数:%s'
%
str(abnormal_line))
#
分析是否存在重复数据
set_data
=
set(list_data)
if
len(set_data)
==
len(list_data):
print('不存在重复数据,
总数:%s
条'
%
len(list_data))
else:
print('有重复数据,重复数据:%s条'
% (len(list_data)
-
len(set_data)))
if
__name__ ==
'__main__':
start_time
= datetime.datetime.now()
test_result_data =
'd:\\test_result_data.txt'
file
= open(test_result_data,
'w')
#
存储服务器返回数据
threads_pool
= [] #
线程池,存放线程对象
thread_num
=
0 #
记录创建的线程数量
while
thread_num <</span>
int]):
thread_obj
= SubThread(file)
threads_pool.append(thread_obj)
thread_num
= thread_num +
for
thread
in
threads_pool:
thread.start()
#
利用主线程执行清理工作
current_active_thread_num
=
len(threading.enumerate())
# 获取当前活动线程数量
while
current_active_thread_num
!= :
)
current_active_thread_num
=
len(threading.enumerate())
#
清理工作
try:
file.close()
except
Exception
as
e:
print('关闭文件出错%s'
% e)
end_time = datetime.datetime.now()
print('运行耗时:',end_time
- start_time)
# 分析数据
analyze(test_result_data)
运行(禁用time.sleep函数的情况下):
100个线程,每个线程运行50次,总的运行
5000次
python requestpy.py
100
50
修改程序如下
class SubThread(threading.Thread):
def __init__(self, file_handler):
self.file_handler = file_handler
self.run_times = 0 # 记录每个线程的运行次数
threading.Thread.__init__(self)
def run(self):
while self.run_times < int(sys.argv[2]):
url = 'http://xxxxxx/xxxxxcard/kq/codepool/test/'
request = urllib.request.Request(url, method='POST')
try:
response = urllib.request.urlopen(request)
response_body = response.read()
response_body = response_body.decode('utf-8')
response_body = json.loads(response_body)
# 写入文件
self.file_handler.write(str(response_body['code']))
self.file_handler.write('\n')
self.run_times = self.run_times + 1 # 记录每个线程的运行次数
print('已经执行%s次请求' % str(self.run_times))
except Exception as e:
print('请求错误%s' % e)
def analyze(test_result_file_list):
list_data = [] # 存放目标数据
total_line_count = 0 # 读取的文本行数
abnormal_line = 0 # 存放异常数据行数
digit_line = 0 # 存放正确数据函数
for file in test_result_file_list:
with open(file, 'r') as file:
line = file.readline()
while line:
line = line.strip('\n')
if line.isdigit() and len(line) == 12:
list_data.append(int(line))
digit_line = digit_line + 1
else:
abnormal_line = abnormal_line + 1
print('服务器返回数据异常')
line = file.readline()
total_line_count = total_line_count + 1
print('读取的总行数:%s' % str(total_line_count))
print('数据正确的行数:%s' % str(digit_line))
print('数据异常的行数:%s' % str(abnormal_line))
# 分析是否存在重复数据
set_data = set(list_data)
if len(set_data) == len(list_data):
print('不存在重复数据, 总数:%s 条' % len(list_data))
else:
print('有重复数据,重复数据:%s条' % (len(list_data) - len(set_data)))
# 获取重复数据
filehaneder = open('d:\\repeat_data.txt', 'w')
c = Counter(list_data)
for item in c.items():
if item[1] > 1:
print('重复数据:%s' % item[0])
filehaneder.write(str(item[0]))
filehaneder.write('\n')
filehaneder.close()
if __name__ == '__main__':
start_time = datetime.datetime.now()
base_filename = 'test_result_data'
base_dirname = 'd:\\result\\'
test_result_file_list = [] # 存储结果数据文件名
sub_thread_file_list = [] # 每个线程的文件句柄
threads_pool = [] # 线程池,存放线程对象
thread_num = 0 # 记录创建的线程数量
while thread_num < int(sys.argv[1]):
filename = base_dirname + base_filename + str(thread_num + 1) + '.txt'
test_result_file_list.append(filename)
file = open(filename, 'w')
sub_thread_file_list.append(file)
thread_obj = SubThread(file)
threads_pool.append(thread_obj)
thread_num = thread_num + 1
for thread in threads_pool:
thread.start()
# # 利用主线程执行清理工作
current_active_thread_num = len(threading.enumerate()) # 获取当前活动线程数量
while current_active_thread_num != 1:
time.sleep(300)
current_active_thread_num = len(threading.enumerate())
# 清理工作
try:
for file in sub_thread_file_list:
file.close()
except Exception as e:
print('关闭文件出错%s' % e)
end_time = datetime.datetime.now()
print('运行耗时:',end_time - start_time)
# 分析数据
analyze(test_result_file_list)
运行结果:
Python 多线程并发程序设计与分析的更多相关文章
- python 多线程日志切割+日志分析
python 多线程日志切割+日志分析 05/27. 2014 楼主最近刚刚接触python,还是个小菜鸟,没有学习python之前可以说楼主的shell已经算是可以了,但用shell很多东西实现起来 ...
- 用Queue控制python多线程并发数量
python多线程如果不进行并发数量控制,在启动线程数量多到一定程度后,会造成线程无法启动的错误. 下面介绍用Queue控制多线程并发数量的方法(python3). # -*- coding: utf ...
- Python多线程并发的误区
由于项目要做一个并发测试,由于断言的东西较多,决定手写脚本.于是用python写了脚本: def test_method(thread_no): print("%s===test_metho ...
- python 多线程并发threading & 任务队列Queue
https://docs.python.org/3.7/library/concurrency.htmlpython程序默认是单线程的,也就是说在前一句语句执行完之前后面的语句不能继续执行先感受一下线 ...
- python多线程并发
# coding=utf8 # 使用前需安装net-snmp-utils或net-snmp包 from _utils.patrol2 import run_cmd import sys import ...
- python 多线程 并发socket实例
sever side: import socketserver class MyTCPHandler(socketserver.BaseRequestHandler): def handle(self ...
- Python 多线程教程:并发与并行
转载于: https://my.oschina.net/leejun2005/blog/398826 在批评Python的讨论中,常常说起Python多线程是多么的难用.还有人对 global int ...
- HashMap多线程并发问题分析
转载: HashMap多线程并发问题分析 并发问题的症状 多线程put后可能导致get死循环 从前我们的Java代码因为一些原因使用了HashMap这个东西,但是当时的程序是单线程的,一切都没有问题. ...
- python多进程并发和多线程并发和协程
为什么需要并发编程? 如果程序中包含I/O操作,程序会有很高的延迟,CPU会处于等待状态,这样会浪费系统资源,浪费时间 1.Python的并发编程分为多进程并发和多线程并发 多进程并发:运行多个独立的 ...
随机推荐
- knn算法的c语言实现
最近研究KNN,找到了一些优秀的源码,贴出来,做个笔记吧. #include<stdio.h> #include<stdlib.h> #include<math.h> ...
- 一文了解Python中的循环(for while break continue 嵌套循环...)
循环 目标 程序的三大流程 while 循环基本使用 break 和 continue while 循环嵌套 01. 程序的三大流程 在程序开发中,一共有三种流程方式: 顺序 —— 从上向下,顺序执行 ...
- Xamarin.Android 嵌入web端界面
在程序中嵌入Web端界面. 首先在前台界面上创建一个webview <android.webkit.WebView android:layout_width="match_parent ...
- 解决spring的bean同名冲突
今天工作发现当不同模块下有相同bean然后又被同一个模块引用的话就会导致bean同名冲突,如下: 解决方案很简单,如果是xml配置直接修改bean的名称即可,如果是注解形式修改如下: 只要在servi ...
- RabbitMQ管理界面
Management Plugin rabbitmq-management插件提供基于HTTP的API方式管理和监控你的RabbitMQ服务器. 可以使用基于浏览器的UI界面,也可以使用命令行(rab ...
- 五款实用免费的Python机器学习集成开发环境(5 free Python IDE for Machine Learning)(图文详解)
前言 集成开发环境(IDE)是提供给程序员和开发者的一种基本应用,用来编写和测试软件.一般而言,IDE 由一个编辑器,一个编译器(或称之为解释器),和一个调试器组成,通常能够通过 GUI(图形界面)来 ...
- MySQL+MGR 单主模式和多主模式的集群环境 - 部署手册 (Centos7.5)
MySQL Group Replication(简称MGR)是MySQL官方于2016年12月推出的一个全新的高可用与高扩展的解决方案.MGR是MySQL官方在5.7.17版本引进的一个数据库高可用与 ...
- 初识MongoBD
一.安装 我使用的系统是Ubuntu16.04,不同版本系统参照官网安装步骤.安装官网4个步骤安装好MongoDB并启动. sudo apt-key adv --keyserver hkp://key ...
- Squid实现正向代理及访问控制--技术流ken
Squid及正向代理简介 Squid cache(简称为Squid)是一个流行的自由软件,它符合GNU通用公共许可证.Squid作为网页服务器的前置cache服务器,可以代理用户向web服务器请求数据 ...
- fork/join 全面剖析
fork/join作为一个并发框架在jdk7的时候就加入到了我们的java并发包java.util.concurrent中,并且在java 8 的lambda并行流中充当着底层框架的角色.这样一个优秀 ...