1.服务器概述

1.硬件服务器(IBM,HP): 主机 集群

2.软件服务器(HTTPserver Django flask): 网络服务器,在后端提供网络功能逻辑处理数据处理的程序或者架构等

3.服务器架构
        c/s(客户端client服务器server): b/s架构充分发挥了PC机的性能

        b/s(浏览器browser服务器server): 隶属于c/s架构,b/s架构统一了应用的接口

4.服务器追求: 处理速度快,数据更安全,并发量大

        硬件: 更高配置,更多主机,集成,分布

        软件: 程序占有更少的资源,更流畅的运行,处理更多的并发

2.服务器模型

1.基本的服务器模型

        1.循环服务器模型

            模式: 单线程程序,循环接收连接或者请求然后处理,处理后继续循环

            缺点: 不能同时处理多个客户端的并行,不允许某个客户端长期占有服务器

            优点: 结构比较简单,适用于UDP程序,要求处理请求可以很快完成

        2.IO多路复用服务器模型

            模式: 通过同时监控多个IO来达到IO并发的目的

            缺点: 也是单线程,不能长期阻塞,不适用处理大量CPU占有高的程序

            优点: 开销小,比较适合IO密集型的服务端程序

        3.并发服务器模型

            模式:

                每有一个客户端链接请求就创建一个新的进程或线程处理客户端的请求

                而主进程或主线程可以继续接收其它客户端的连接

            缺点: 资源消耗比较大,客户端需要长期占有服务器的情况

            优点: 多任务,高并发

2.并发服务器-多进程(fork, multiprocessing)

        1.创建套接字,绑定,监听

        2.接收客户端请求

        3.创建子进程处理客户端请求,父进程继续准备接受新的客户端连接

        4.客户端退出,销毁相应的子进程

3.并发服务器-多线程(threading)

        1.相比多进程服务器的优缺点

            缺点: 需要用到同步互斥,可能受到GIL的影响(网络IO线程并发可以)

            优点: 资源消耗比较少

        2.使用模块: threading socket

        3.步骤

            1.创建套接字,绑定,监听

            2.接收客户端连接请求,创建新的线程

            3.主线程继续接收下一个客户端连接请求,分支线程处理客户端事件

            4.处理事件结束退出线程关闭套接字

4.并发服务器-多协程(gevent + monkey)

5.使用集成模块完成网络并发-socketserver模块

        实现进程tcp并发的类

            'ForkingMixIn','TCPServer', 'StreamRequestHandler'

        实现进程udp并发的类

            'ForkingMixIn', 'UDPServer', 'DatagramRequestHandler',

        实现线程tcp并发的类

            'ThreadingMixIn', 'TCPServer', 'StreamRequestHandler'

        实现线程udp并发的类

            'ThreadingMixIn', 'UDPServer','DatagramRequestHandler',

        其他类

            'ForkingTCPServer' = 'ForkingMixIn' + 'TCPServer'

            'ForkingUDPServer' = 'ForkingMixIn' + 'UDPServer'

            'ThreadingTCPServer' = 'ThreadingMixIn' + 'TCPServer'

            'ThreadingUDPServer' = 'ThreadingMixIn' + 'UDPServer'

3.HTTP超文本传输协议概述

1.在Web应用中,服务器把网页传给浏览器,实际上就是把网页的HTML代码发送给浏览器让浏览器显示出

2.浏览器和服务器之间的传输协议是HTTP,HTTP是在网络上传输HTML的协议,用于浏览器和服务器的通信

3.HTML是一种用来定义网页的文本,会HTML,就可以编写网页

4.用途:

        1.网站中网页的传输和数据传输

        2.基于HTTP协议的编程传输数据

5.特点:

        1.应用层协议,传输层使用TCP连接

        2.简单灵活接口使用方便

        3.几乎支持所有的数据类型

        4.是无状态的

        5.长连接(HTTP 1.1)

4.Web网站概述

1.浏览器访问网站过程

1.域名解析

2.向服务器发送三次握手

3.客户端(浏览器)发起HTTP请求

4.传输层使用TCP协议建立连接,层层打包将请求内容发送给服务器

5.web服务器解包后解析HTTP请求,交给后端应用程序处理

6.后端应用得到结果,通过web服务器回发给前端

7.发送tcp四次回送

8.浏览器访问网站流程图: https://www.processon.com/view/link/5efcac3507912929cb6b33df

2.请求(request)的结构格式

1.请求行(确定具体的请求类型):

            GET(请求方法) /index.thml(请求资源) HTTP/1.1(协议版本)

            # 请求方法

            GET: 获取网络资源

            POST: 提交一定的附加数据,得到返回结果

            HEAD: 获取响应的头信息

            PUT: 更新服务器资源

            DELETE: 删除服务器资源

            TRACE: 用于测试

            CONNECT: 保留方法

            OPTIONS: 请求获取服务器性能和信息

3.请求头(对请求内容的信息描述)

            # 选项: 值

            Accept: text/html,application/xhtml+xml  # 浏览器可以接收的文本格式

            Accept-Encoding: gzip, deflate  # 浏览器可以接收的压缩格式

            Accept-Language: zh-CN,zh;q=0.9  # 浏览器可以接收的语言

            Connection: keep-alive  # 长连接

            Cookie: BAIDUID=8A4DA4339C1B8A74DD251F7D9F834C76:FG=1

            Host: news.baidu.com  # 请求的服务器地址

            Referer: https://www.baidu.com/  # 防盗链,防止恶意请求

            Upgrade-Insecure-Requests: 1

            User-Agent: Mozilla/5.0 (Windows NT 6.1; Win64; x64)  # 发送请求的浏览器的版本

3.空行

4.请求体(具体请求参数):

            get请求: get参数 &a=1&b=2

            post请求: post提交的内容

3.响应(response)的结构格式

1.响应行(反馈响应的情况): HTTP/1.1(协议版本) 200(响应码) OK(信息)

            # 响应码

            1xx: 提示信息,表示请求已经接收,正在处理

            2xx: 请求响应成功

            3xx: 重定向,完成任务需要其它操作

            4xx: 客户端错误

            5xx: 服务端错误

# HTTP响应状态码划分

            100-199: 表示成功接收请求,要求客户端继续提交下一次请求才能完成整个处理过程

            200-299: 表示成功接收请求并已完成整个处理过程,常用200

            300-399: 未完成请求,客户需进一步细化请求,常用302,307,304

            400-499: 客户端的请求有错误,常用404

            500-599: 服务器端出现错误,常用500

# 响应码示例

            200 成功

            401 没有访问权限

            404 资源不存在

            500 服务器发生未知错误

            503 服务器暂时无法执行

2.响应头(对响应的具体描述)

            # 选项: 值

            Accept: text/html,application/xhtml+xml,application/xml

            Accept-Encoding: gzip, deflate

            Accept-Language: zh-CN,zh;q=0.9

            Connection: keep-alive

            Cookie: BAIDUID=8A4DA4339C1B8A74DD251F7D9F834C76:FG=1

            Host: news.baidu.com

            Referer: https://www.baidu.com/

            Upgrade-Insecure-Requests: 1

            User-Agent: Mozilla/5.0 (Windows NT 6.1; Win64; x64)

3.空行

4.响应体(具体返回给客户的内容): 文件,图片等

5.访问百度请求信息和应答信息

1.描述信息

General  # 简单的描述
Request URL: https://www.baidu.com/ # 请求网址
Request Method: GET # 请求方法
Status Code: 200 OK # 状态代码 有数据 成功
Remote Address: 14.215.177.39:443 # 远程地址:服务器地址
Referrer Policy: no-referrer-when-downgrade # 表示从https协议降为http协议时不发送referrer给跳转网站的服务器

2.应答信息

Response Headers    view source  # 响应头  源始头
Bdpagetype: 1 # 百度服务器定义的特定值
Bdqid: 0xedfaa2040000c90c # 百度服务器定义的特定值
Cache-Control: private # 缓存控制:私有
Connection: Keep-Alive # 连接:tpc socket的可靠连接
Content-Encoding: gzip # 服务器通过这个头告诉浏览器数据的压缩格式
Content-Type: text/html # 服务器通过这个头告诉浏览器回送数据的类型
Cxy_all: baidu+d83b58345e15ab078f816c529e1cef79
Date: Sun, 14 Apr 2019 02:47:43 GMT # 时间
Expires: Sun, 14 Apr 2019 02:47:31 GMT # 到期时间
Server: BWS/1.1 # 服务器通过这个头告诉浏览器服务器的型号
Set-Cookie: delPer=0; path=/; domain=.baidu.com
Set-Cookie: BDSVRTM=0; path=/
Set-Cookie: BD_HOME=0; path=/
Set-Cookie: H_PS_PSSID=1427_28827_21091_28768_28722_28558_28832_28585_28604_28606; path=/; domain=.baidu.com
"""Set-Cookie
服务器与客户端验证身份的信息
其中path=/; domain=.baidu.com为域名判断条件,如果满足该条件,才可以向服务器发送cookie
"""
Strict-Transport-Security: max-age=172800 # 通知浏览器,这个网站禁止使用HTTP方式加载,浏览器应该自动把所有尝试使用HTTP的请求自动替换为HTTPS请求
Transfer-Encoding: chunked # Transfer-Encoding,是一个 HTTP 头部字段(响应头域),字面意思是传输编码,最新的 HTTP规范里,只定义了一种编码传输:分块编码(chunked),数据分解成一系列数据块,并以一个或多个块发送,这样服务器可以发送数据而不需要预先知道发送内容的总大小
Vary: Accept-Encoding # 告诉代理服务器缓存两种版本的资源:压缩和非压缩
X-Ua-Compatible: IE=Edge,chrome=1 # 这是一个文档兼容模式的定义,主要用于加强代码对IE的兼容性,强制IE使用当前本地最新版标准模式渲染或者用chrome内核渲染 Response Headers view parsed # 响应头 已解析源始头
HTTP/1.1 200 OK # 使用HTTP协议进行传输的中协议版本号为1.1请求状态码为200 OK
Bdpagetype: 1 # 百度服务器定义的特定值
Bdqid: 0xfa9b2b6a00029507 # 百度服务器定义的特定值
Cache-Control: private # 对数据进行缓存
Connection: keep-alive # # 连接:tpc socket的可靠连接
Content-Encoding: gzip # 传输资源的文件压缩格式
Content-Type: text/html;charset=utf-8 # 传输资源的文件类型和编码类型
Date: Thu, 04 Jun 2020 08:56:33 GMT # 资源的发送时间
Expires: Thu, 04 Jun 2020 08:56:29 GMT # 资源过期时间
Server: BWS/1.1 # 服务器的系统版本,其中BWS为百度自有服务器(Baidu Web Server)
Set-Cookie: BDSVRTM=0; path=/
Set-Cookie: BD_HOME=1; path=/
Set-Cookie: H_PS_PSSID=31728_1460_31326_21078_31069_31762_31605_31322_30824; path=/; domain=.baidu.com
"""Set-Cookie
服务器与客户端验证身份的信息
其中path=/; domain=.baidu.com为域名判断条件,如果满足该条件,才可以向服务器发送cookie
"""
Strict-Transport-Security: max-age=172800
"""Strict-Transport-Security: max-age=172800
使用https安全传输,防止在浏览器默认http请求和服务器https资源之间进行转换的时候,遭受中间人攻击
浏览器收到该条响应字段,会在max-age秒之内自动将http转换成https的安全访问形式,过期后会重复之前的步骤
"""
Traceid: 1591260993276042138618058074865138832647 # 标记了浏览器发起的某个请求,这个id可在服务端从接收请求到 响应请求中流转,甚至接力传递给下游应用中流转,用于唯一标记和定外这次请求,一般用于定位请求日志
X-Ua-Compatible: IE=Edge,chrome=1 # # 这是一个文档兼容模式的定义,主要用于加强代码对IE的兼容性,强制IE使用当前本地最新版标准模式渲染或者用chrome内核渲染
Transfer-Encoding: chunked # Transfer-Encoding,是一个 HTTP 头部字段(响应头域),字面意思是传输编码,最新的 HTTP规范里,只定义了一种编码传输:分块编码(chunked),数据分解成一系列数据块,并以一个或多个块发送,这样服务器可以发送数据而不需要预先知道发送内容的总大小

3.请求信息

Request Headers view source  # 请求头  源始头
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3
"""Accept
客户端希望接受的文件类型,后面的q=0.9(0<q<1)代表权重系数,越大表示越期待
"""
Accept-Encoding: gzip, deflate, br # 设置接受的编码格式
Accept-Language: zh-CN,zh;q=0.9 # 浏览器支持的语言为简体中文和中文,优先支持简体中文
Cache-Control: max-age=0 # 缓存控制
Connection: keep-alive
"""Connection: keep-alive
该字段可以承载三种不同类型的标签:
HTTP首部字段名,列出了只与此连接有关的首部任意标签值,用于描述此连接的非标准选项值(close)表示的是TCP连接是否关闭,HTTP数据传输采用的TCP三次握手协议
如果值为close,则该次传输数据结束关闭TCP连接,下次传输数据,要重新进行三次握手
如果值为默认的keep-alive,则保持数据通道,下次数据传输可以直接传递,省去三次握手的过程
一般我们只用值close来控制TCP连接状态
"""
Cookie: BIDUPSID=D97A5AC4617B3E6A2486D73D9F89F5AF; PSTM=1590403180; BAIDUID=D97A5AC4617B3E6AA36FE3B792FD9646:FG=1; BD_UPN=12314353; cflag=13%3A3; BD_HOME=1; H_PS_PSSID=31728_1460_31326_21078_31069_31762_31605_31322_30824; delPer=0; BD_CK_SAM=1; BDORZ=B490B5EBF6F3CD402E515D22BCDA1598; yjs_js_security_passport=64f53ded3515c88a93fa8fb6ab0e4dafa11418ec_1591253192_js; PSINO=5; COOKIE_SESSION=1708_0_9_9_24_19_0_3_9_7_4_6_1708_0_6_0_1591254838_0_1591254844%7C9%230_0_1590910191%7C1
Host: www.baidu.com # # 浏览器发给服务器,声明浏览器访问哪台主机
Upgrade-Insecure-Requests: 1
"""Upgrade-Insecure-Requests: 1
该字段用于http和https格式的过渡,一般如果请求http时,服务器资源为https,或是相反,浏览器会提示或报错
而Google浏览器使用该字段向服务器表明,浏览器本身可以将http转换成https,服务器可以随意发,浏览器会自动将http://该成https://
"""
User-Agent: Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36
"""User-Agent
用户Agent代理,即用户发出HTTP请求的客户端程序(例:浏览器Mozilla/5.0版本,Chrome/73.0.3683.86版本,spider爬虫,Web robot等)
""" Request Headers view parsed # 请求头 已解析源始头
GET / HTTP/1.1 # 请求方式 请求目录 协议版本
Host: www.baidu.com # 浏览器发给服务器,声明浏览器访问哪台主机
Connection: keep-alive # 浏览器发给服务器,声明请求完后是断开链接还是维持链接
Cache-Control: max-age=0 # 缓存控制
Upgrade-Insecure-Requests: 1 # 浏览器发给服务器,声明自己支持这种操作,也就是我能读懂你服务器发过来的上面这条信息,并且在以后发请求的时候不用http而用https
User-Agent: Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36 # 浏览器发给服务器,声明支持的浏览器及版本
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3 # 浏览器发给服务器,声明浏览器所支持的数据类型
Accept-Encoding: gzip, deflate, br # 浏览器发给服务器,声明浏览器支持的编码类型
Accept-Language: zh-CN,zh;q=0.9 # 浏览器发给服务器,声明浏览器支持的语言
Cookie: BAIDUID=BF236BEC6E4EF4DCF1AD838C2D217739:FG=1; PSTM=1555138860; BIDUPSID=88B1B87B29B6B36C8E48F551D3574BFE; BD_UPN=12314353; BDORZ=B490B5EBF6F3CD402E515D22BCDA1598; H_PS_PSSID=1427_28827_21091_28768_28722_28558_28832_28585_28604_28606; BDUSS=HU1UVhKRnNDMEhiYjlOVjNPQUhYfkxlZ2xTejV-c0Y0c2RzUVFSQUxtTVBOZHBjSUFBQUFBJCQAAAAAAAAAAAEAAABZiE1gQW5nZWxzxbe6wAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA-oslwPqLJcW; delPer=0; BD_CK_SAM=1; PSINO=6; H_PS_645EC=c374KRUZaisqZePbVCOq52p9mRyTUyW7oNYJp%2Bbf2HRkfC7pCZ%2F5tPvURnM; ZD_ENTRY=baidu; BD_HOME=1

6.Web静态服务器-单任务

# html文件夹网盘链接: https://pan.baidu.com/s/1wbZ92KLstff3GurLV_C0lg  密码: hp9o
# 下载完命令行解压后放到程序的同级路径下,解压命令: tar -zxvf 06_html.tar.gz -C ./
import socket
import re def handle_request(client_socket):
"""为一个客户端进行服务"""
# 1.接收浏览器发送过来的HTTP请求
recv_data = client_socket.recv(1024).decode('utf-8', errors="ignore")
request_header_lines = recv_data.splitlines()
for line in request_header_lines:
print(line) # GET /index.html HTTP/1.1
http_request_line = request_header_lines[0]
get_file_name = re.match("[^/]+(/[^ ]*)", http_request_line).group(1)
print("file name is ===>%s" % get_file_name) # for test # 如果没有指定访问哪个页面,则默认访问index.html
# GET / HTTP/1.1
if get_file_name == "/":
get_file_name = DOCUMENTS_ROOT + "/index.html"
else:
get_file_name = DOCUMENTS_ROOT + get_file_name
print("file name is ===2>%s" % get_file_name) # for test # 2.返回HTTP格式的数据给浏览器
try:
f = open(get_file_name, "rb")
except IOError:
# 404表示没有这个页面
response_headers = "HTTP/1.1 404 not found\r\n"
response_headers += "\r\n"
response_body = "====sorry, file not found====".encode("utf-8")
else:
# 2.1 准备发送给浏览器的数据-->header
response_headers = "HTTP/1.1 200 OK\r\n"
# 2.2 用一个空的行与body进行隔开
response_headers += "\r\n"
# 2.3 准备发送给浏览器的数据-->body
response_body = f.read()
f.close()
finally:
# 因为头信息在组织的时候,是按照字符串组织的,不能与以二进制打开文件读取的数据合并,因此分开发送
# 先发送response的头信息
client_socket.send(response_headers.encode("utf-8"))
# 再发送body
client_socket.send(response_body)
# 关闭套接字
client_socket.close() def main():
"""作为程序的主控制入口"""
# 1.创建数据流套接字
tcp_server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
# 2.设置当服务器先close 即服务器端4次挥手之后资源能够立即释放,保证下次运行程序时可以立即绑定7890端口
tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
# 3.绑定服务器地址
tcp_server_socket.bind(("", 7890))
# 4.套接字由主动改为监听,并设置队列长度
tcp_server_socket.listen(128)
while True:
# 5.等待客户端连接
client_socket, client_addr = tcp_server_socket.accept()
# 6.为客户端服务
handle_request(client_socket) # 7.关闭监听套接字
tcp_server_socket.close() # 配置服务器静态资源路径
DOCUMENTS_ROOT = "./html" if __name__ == "__main__":
main()

7.Web静态服务器-多进程(multiprocessing)

# html文件夹网盘链接: https://pan.baidu.com/s/1wbZ92KLstff3GurLV_C0lg  密码: hp9o
# 下载完命令行解压后放到程序的同级路径下,解压命令: tar -zxvf 06_html.tar.gz -C ./
import socket
import multiprocessing
import re class WSGIServer:
"""定义一个WSGI服务器的类"""
def __init__(self, server_address):
# 1.创建数据流套接字
self.tcp_server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
# 2.设置当服务器先close 即服务器端4次挥手之后资源能够立即释放,保证下次运行程序时可以立即绑定7890端口
self.tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
# 3.绑定服务器地址
self.tcp_server_socket.bind(server_address)
# 4.套接字由主动改为监听,并设置队列长度
self.tcp_server_socket.listen(128) def serve_forever(self):
"""循环运行服务器,等待客户端链接并为客户端服务"""
while True:
# 5.等待客户端链接
client_socket, client_addr = self.tcp_server_socket.accept()
# 6.为客户端服务
new_process = multiprocessing.Process(target=self.handle_request, args=(client_socket,))
new_process.start() # 因为子进程已经复制了父进程的套接字等资源,所以父进程调用close不会将他们对应的这个链接关闭的
client_socket.close() def handle_request(self, client_socket):
"""用一个新的进程为客户端服务"""
# 1.接收浏览器发送过来的HTTP请求
recv_data = client_socket.recv(1024).decode('utf-8', errors="ignore")
request_header_lines = recv_data.splitlines()
for line in request_header_lines:
print(line) # GET /index.html HTTP/1.1
http_request_line = request_header_lines[0]
get_file_name = re.match("[^/]+(/[^ ]*)", http_request_line).group(1)
print("file name is ===>%s" % get_file_name) # for test # 如果没有指定访问哪个页面,则默认访问index.html
# GET / HTTP/1.1
if get_file_name == "/":
get_file_name = DOCUMENTS_ROOT + "/index.html"
else:
get_file_name = DOCUMENTS_ROOT + get_file_name
print("file name is ===2>%s" % get_file_name) # for test # 2.返回HTTP格式的数据给浏览器
try:
f = open(get_file_name, "rb")
except IOError:
# 404表示没有这个页面
response_headers = "HTTP/1.1 404 not found\r\n"
response_headers += "\r\n"
response_body = "====sorry, file not found====".encode("utf-8")
else:
# 2.1 准备发送给浏览器的数据-->header
response_headers = "HTTP/1.1 200 OK\r\n"
# 2.2 用一个空的行与body进行隔开
response_headers += "\r\n"
# 2.3 准备发送给浏览器的数据-->body
response_body = f.read()
f.close()
finally:
# 因为头信息在组织的时候,是按照字符串组织的,不能与以二进制打开文件读取的数据合并,因此分开发送
# 先发送response的头信息
client_socket.send(response_headers.encode("utf-8"))
# 再发送body
client_socket.send(response_body)
# 关闭套接字
client_socket.close() # 设定服务器的地址
SERVER_ADDR = ("", 7890)
# 设置服务器静态资源的路径
DOCUMENTS_ROOT = "./html" def main():
http_server = WSGIServer(SERVER_ADDR)
print("web Server: Serving HTTP on port %d ...\n" % SERVER_ADDR[1])
http_server.serve_forever() if __name__ == "__main__":
main()

8.Web静态服务器-多进程(os.fork)

# html文件夹网盘链接: https://pan.baidu.com/s/1wbZ92KLstff3GurLV_C0lg  密码: hp9o
# 下载完命令行解压后放到程序的同级路径下,解压命令: tar -zxvf 06_html.tar.gz -C ./
import socket
import os
import signal
import re class WSGIServer:
"""定义一个WSGI服务器的类""" def __init__(self, server_address):
# 1.创建数据流套接字
self.tcp_server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
# 2.设置当服务器先close 即服务器端4次挥手之后资源能够立即释放,保证下次运行程序时可以立即绑定7890端口
self.tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
# 3.绑定服务器地址
self.tcp_server_socket.bind(server_address)
# 4.套接字由主动改为监听,并设置队列长度
self.tcp_server_socket.listen(128) def serve_forever(self):
"""循环运行服务器,等待客户端链接并为客户端服务"""
print("父进程PID[%s]等待客户端的链接" % os.getpid())
while True:
try:
# 5.等待客户端链接
client_socket, client_addr = self.tcp_server_socket.accept()
except KeyboardInterrupt: # 用户中断执行(通常是输入^C)
raise
except Exception:
continue
# 6.处理子进程,避免成为僵尸进程-->SIGCHLD: 子进程改变状态时,父进程会收到这个信号;SIG_IGN: 忽略这个信号
signal.signal(signal.SIGCHLD, signal.SIG_IGN)
# 7.父进程为客户端创建新的进程
pid = os.fork()
if pid < 0:
print("创建子进程失败...")
# 关闭客户端套接字
client_socket.close()
elif pid == 0:
# 子进程中不需要使用监听套接字,因此关闭子进程中的监听套接字
self.tcp_server_socket.close()
# 8.为客户端服务
self.handle_request(client_socket)
else:
# 父进程中不需要使用客户端套接字,因此关不父进程中的客户端套接字
client_socket.close()
continue def handle_request(self, client_socket):
"""用一个新的进程为客户端服务"""
# 1.接收浏览器发送过来的HTTP请求
recv_data = client_socket.recv(1024).decode('utf-8', errors="ignore")
request_header_lines = recv_data.splitlines()
for line in request_header_lines:
print(line) # GET /index.html HTTP/1.1
http_request_line = request_header_lines[0]
get_file_name = re.match("[^/]+(/[^ ]*)", http_request_line).group(1)
print("file name is ===>%s" % get_file_name) # for test # 如果没有指定访问哪个页面,则默认访问index.html
# GET / HTTP/1.1
if get_file_name == "/":
get_file_name = DOCUMENTS_ROOT + "/index.html"
else:
get_file_name = DOCUMENTS_ROOT + get_file_name
print("file name is ===2>%s" % get_file_name) # for test # 2.返回HTTP格式的数据给浏览器
try:
f = open(get_file_name, "rb")
except IOError:
# 404表示没有这个页面
response_headers = "HTTP/1.1 404 not found\r\n"
response_headers += "\r\n"
response_body = "====sorry, file not found====".encode("utf-8")
else:
# 2.1 准备发送给浏览器的数据-->header
response_headers = "HTTP/1.1 200 OK\r\n"
# 2.2 用一个空的行与body进行隔开
response_headers += "\r\n"
# 2.3 准备发送给浏览器的数据-->body
response_body = f.read()
f.close()
finally:
# 因为头信息在组织的时候,是按照字符串组织的,不能与以二进制打开文件读取的数据合并,因此分开发送
# 先发送response的头信息
client_socket.send(response_headers.encode("utf-8"))
# 再发送body
client_socket.send(response_body)
# 关闭套接字
client_socket.close() # 设定服务器的地址
SERVER_ADDR = ("", 7890)
# 设置服务器静态资源的路径
DOCUMENTS_ROOT = "./html" def main():
http_server = WSGIServer(SERVER_ADDR)
print("web Server: Serving HTTP on port %d ...\n" % SERVER_ADDR[1])
http_server.serve_forever() if __name__ == "__main__":
main()

9.Web静态服务器-多进程(集成模块 socketserver)

# html文件夹网盘链接: https://pan.baidu.com/s/1wbZ92KLstff3GurLV_C0lg  密码: hp9o
# 下载完命令行解压后放到程序的同级路径下,解压命令: tar -zxvf 06_html.tar.gz -C ./
from socketserver import ForkingMixIn
from socketserver import TCPServer
from socketserver import StreamRequestHandler
import re # class WSGIServer(ForkingTCPServer): # 写法一 'ForkingTCPServer' = 'ForkingMixIn' + 'TCPServer'
class WSGIServer(ForkingMixIn, TCPServer): # 写法二
"""定义一个创建服务器类继承自模块中的创建服务器类"""
pass class HandleRequest(StreamRequestHandler):
"""定义一个处理请求类继承模块的处理请求类""" def handle(self): # 固定的入口方法
# 等待客户端连接 self.request等同于accept()创建一个新的客户端连接
client_socket = self.request
client_addr = self.request.getpeername() # for test
print("客户端 %s 连接上服务器" % str(client_addr)) # for test while True:
# 1.接收浏览器发送过来的HTTP请求
recv_data = client_socket.recv(1024).decode('utf-8', errors="ignore")
request_header_lines = recv_data.splitlines()
for line in request_header_lines:
print(line) # GET /index.html HTTP/1.1
http_request_line = request_header_lines[0]
get_file_name = re.match("[^/]+(/[^ ]*)", http_request_line).group(1)
print("file name is ===>%s" % get_file_name) # for test # 如果没有指定访问哪个页面,则默认访问index.html
# GET / HTTP/1.1
if get_file_name == "/":
get_file_name = DOCUMENTS_ROOT + "/index.html"
else:
get_file_name = DOCUMENTS_ROOT + get_file_name
print("file name is ===2>%s" % get_file_name) # for test # 2.返回HTTP格式的数据给浏览器
try:
f = open(get_file_name, "rb")
except IOError:
# 404表示没有这个页面
response_body = "====sorry, file not found====".encode("utf-8")
response_headers = "HTTP/1.1 404 not found\r\n"
response_headers += "Content-Type: text/html; charset=utf-8\r\n"
response_headers += "Content-Length: %d\r\n" % (len(response_body))
response_headers += "\r\n"
else:
# 2.1 准备发送给浏览器的数据-->body
response_body = f.read()
f.close()
# 2.2 准备发送给浏览器的数据-->header
response_headers = "HTTP/1.1 200 OK\r\n"
# 2.3 发送body数据长度,让服务器根据长度确认body数据已完成接收,实现长连接
response_headers += "Content-Length: %d\r\n" % (len(response_body))
# 2.4 用一个空的行与body进行隔开
response_headers += "\r\n"
finally:
# 因为头信息在组织的时候,是按照字符串组织的,不能与以二进制打开文件读取的数据合并,因此分开发送
# 先发送response的头信息
client_socket.send(response_headers.encode("utf-8"))
# 再发送body
client_socket.send(response_body)
# 长连接下不需要关闭套接字,而是在header头中声明要发送的body长度
# client_socket.close() # 设定服务器的地址
SERVER_ADDR = ("", 7890)
# 设置服务器静态资源的路径
DOCUMENTS_ROOT = "./html" def main():
http_server = WSGIServer(SERVER_ADDR, HandleRequest)
print("web Server: Serving HTTP on port %d ...\n" % SERVER_ADDR[1])
http_server.serve_forever() if __name__ == "__main__":
main()

10.Web静态服务器-多线程(threading)

# html文件夹网盘链接: https://pan.baidu.com/s/1wbZ92KLstff3GurLV_C0lg  密码: hp9o
# 下载完命令行解压后放到程序的同级路径下,解压命令: tar -zxvf 06_html.tar.gz -C ./
import socket
import threading
import re class WSGIServer:
"""定义一个WSGI服务器的类"""
def __init__(self, server_address):
# 1.创建数据流套接字
self.tcp_server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
# 2.设置当服务器先close 即服务器端4次挥手之后资源能够立即释放,保证下次运行程序时可以立即绑定7890端口
self.tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
# 3.绑定服务器地址
self.tcp_server_socket.bind(server_address)
# 4.套接字由主动改为监听,并设置队列长度
self.tcp_server_socket.listen(128) def serve_forever(self):
"""循环运行服务器,等待客户端链接并为客户端服务"""
while True:
# 5.等待客户端链接
client_socket, client_addr = self.tcp_server_socket.accept()
# 6.为客户端服务
new_thread = threading.Thread(target=self.handle_request, args=(client_socket,))
new_thread.start() # 因为线程是共享同一个套接字,所以主线程不能关闭,否则子线程就不能再使用这个套接字
# client_socket.close() def handle_request(self, client_socket):
"""用一个新的进程为客户端服务"""
# 1.接收浏览器发送过来的HTTP请求
recv_data = client_socket.recv(1024).decode('utf-8', errors="ignore")
request_header_lines = recv_data.splitlines()
for line in request_header_lines:
print(line) # GET /index.html HTTP/1.1
http_request_line = request_header_lines[0]
get_file_name = re.match("[^/]+(/[^ ]*)", http_request_line).group(1)
print("file name is ===>%s" % get_file_name) # 如果没有指定访问哪个页面,则默认访问index.html
# GET / HTTP/1.1
if get_file_name == "/":
get_file_name = DOCUMENTS_ROOT + "/index.html"
else:
get_file_name = DOCUMENTS_ROOT + get_file_name
print("file name is ===2>%s" % get_file_name) # 2.返回HTTP格式的数据给浏览器
try:
f = open(get_file_name, "rb")
except IOError:
# 404表示没有这个页面
response_headers = "HTTP/1.1 404 not found\r\n"
response_headers += "\r\n"
response_body = "====sorry, file not found====".encode("utf-8")
else:
# 2.1 准备发送给浏览器的数据-->header
response_headers = "HTTP/1.1 200 OK\r\n"
# 2.2 用一个空的行与body进行隔开
response_headers += "\r\n"
# 2.3 准备发送给浏览器的数据-->body
response_body = f.read()
f.close()
finally:
# 因为头信息在组织的时候,是按照字符串组织的,不能与以二进制打开文件读取的数据合并,因此分开发送
# 先发送response的头信息
client_socket.send(response_headers.encode("utf-8"))
# 再发送body
client_socket.send(response_body)
# 关闭套接字
client_socket.close() # 设定服务器的地址
SERVER_ADDR = ("", 7890)
# 设置服务器静态资源的路径
DOCUMENTS_ROOT = "./html" def main():
http_server = WSGIServer(SERVER_ADDR)
print("web Server: Serving HTTP on port %d ...\n" % SERVER_ADDR[1])
http_server.serve_forever() if __name__ == "__main__":
main()

11.Web静态服务器-多协程(gevent + monkey)

# html文件夹网盘链接: https://pan.baidu.com/s/1wbZ92KLstff3GurLV_C0lg  密码: hp9o
# 下载完命令行解压后放到程序的同级路径下,解压命令: tar -zxvf 06_html.tar.gz -C ./
import socket
import re
import gevent
from gevent import monkey monkey.patch_all() class WSGIServer:
"""定义一个WSGI服务器的类"""
def __init__(self, server_address):
# 1.创建数据流套接字
self.tcp_server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
# 2.设置当服务器先close 即服务器端4次挥手之后资源能够立即释放,保证下次运行程序时可以立即绑定7890端口
self.tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
# 3.绑定服务器地址
self.tcp_server_socket.bind(server_address)
# 4.套接字由主动改为监听,并设置队列长度
self.tcp_server_socket.listen(128) def serve_forever(self):
"""循环运行服务器,等待客户端链接并为客户端服务"""
while True:
# 5.等待客户端链接
client_socket, client_addr = self.tcp_server_socket.accept()
# 6.为客户端服务
gevent.spawn(self.handle_request, client_socket) def handle_request(self, client_socket):
"""用协程为客户端服务"""
# 1.接收浏览器发送过来的HTTP请求
recv_data = client_socket.recv(1024).decode('utf-8', errors="ignore")
request_header_lines = recv_data.splitlines()
for line in request_header_lines:
print(line) # GET /index.html HTTP/1.1
http_request_line = request_header_lines[0]
get_file_name = re.match("[^/]+(/[^ ]*)", http_request_line).group(1)
print("file name is ===>%s" % get_file_name) # 如果没有指定访问哪个页面,则默认访问index.html
# GET / HTTP/1.1
if get_file_name == "/":
get_file_name = DOCUMENTS_ROOT + "/index.html"
else:
get_file_name = DOCUMENTS_ROOT + get_file_name
print("file name is ===2>%s" % get_file_name) # 2.返回HTTP格式的数据给浏览器
try:
f = open(get_file_name, "rb")
except IOError:
# 404表示没有这个页面
response_headers = "HTTP/1.1 404 not found\r\n"
response_headers += "\r\n"
response_body = "====sorry, file not found====".encode("utf-8")
else:
# 2.1 准备发送给浏览器的数据-->header
response_headers = "HTTP/1.1 200 OK\r\n"
# 2.2 用一个空的行与body进行隔开
response_headers += "\r\n"
# 2.3 准备发送给浏览器的数据-->body
response_body = f.read()
f.close()
finally:
# 因为头信息在组织的时候,是按照字符串组织的,不能与以二进制打开文件读取的数据合并,因此分开发送
# 先发送response的头信息
client_socket.send(response_headers.encode("utf-8"))
# 再发送body
client_socket.send(response_body)
# 关闭套接字
client_socket.close() # 设定服务器的地址
SERVER_ADDR = ("", 7890)
# 设置服务器静态资源的路径
DOCUMENTS_ROOT = "./html" def main():
http_server = WSGIServer(SERVER_ADDR)
print("web Server: Serving HTTP on port %d ...\n" % SERVER_ADDR[1])
http_server.serve_forever() if __name__ == "__main__":
main()

12.Web静态服务器-非阻塞IO(基于非阻塞状态的单进程单线程长连接)

# html文件夹网盘链接: https://pan.baidu.com/s/1wbZ92KLstff3GurLV_C0lg  密码: hp9o
# 下载完命令行解压后放到程序的同级路径下,解压命令: tar -zxvf 06_html.tar.gz -C ./
import sys
import time
import socket
import re class WSGIServer:
"""定义一个WSGI服务器的类"""
def __init__(self, server_addr):
# 1.创建数据流套接字
self.tcp_server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
# 2.设置当服务器先close 即服务器端4次挥手之后资源能够立即释放,保证下次运行程序时可以立即绑定7890端口
self.tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
# 3.绑定服务器地址
self.tcp_server_socket.bind(server_addr)
# 4.套接字由主动改为监听,并设置队列长度
self.tcp_server_socket.listen(128)
# 5.设置为非堵塞后,如果accept时,恰巧没有客户端connect,那么accept会产生一个异常,所以需要try来进行处理
self.tcp_server_socket.setblocking(False) # 将监听套接字设置为非堵塞
self.client_socket_list = list() # 创建客户端client_socket轮询列表 def serve_forever(self):
"""循环运行服务器,等待客户端链接并为客户端服务"""
while True:
time.sleep(1) # for test
try:
# 6.等待客户端链接
client_socket, client_addr = self.tcp_server_socket.accept()
except Exception as ret:
print("--->1<---没有客户端到来: ", ret) # for test
else:
# 7.当有客户端连接时,将客户端的套接字加入到轮询列表
client_socket.setblocking(False) # 将客户端套接字设置为非堵塞
self.client_socket_list.append(client_socket) # 8.遍历列表看是否有收到客户端套接字发送的消息,如果收到消息则为客户端服务
for client_socket in self.client_socket_list:
try:
# 1.接收浏览器发送过来的HTTP请求
request = client_socket.recv(1024).decode("utf-8", errors="ignore")
except Exception as ret:
print("--->2<---这个客户端没有发送过来请求: ", ret) # for test
else:
if request:
# 2.1 为这个客户端服务
self.handle_request(request, client_socket)
else:
# 2.2 客户端调用了close导致recv返回,服务端将关闭客户端套接字并从轮询列表中删除
client_socket.close()
self.client_socket_list.remove(client_socket) print(self.client_socket_list) def handle_request(self, request, client_socket):
"""为客户端服务"""
# 1.提取客户端发送过来的数据
request_header_lines = request.splitlines()
for i, line in enumerate(request_header_lines):
print(i, line) # GET /index.html HTTP/1.1
http_request_line = request_header_lines[0]
ret = re.match(r"([^/]*)([^ ]+)", http_request_line)
if ret:
print("正则提取数据:", ret.group(1))
print("正则提取数据:", ret.group(2))
get_file_name = ret.group(2)
# 如果没有指定访问哪个页面,则默认访问index.html
# GET / HTTP/1.1
if get_file_name == "/":
get_file_name = DOCUMENTS_ROOT + "/index.html"
else:
get_file_name = DOCUMENTS_ROOT + get_file_name
print("要访问的完整路径是: %s" % get_file_name) # 2.返回HTTP格式的数据给浏览器
try:
f = open(get_file_name, "rb")
except IOError:
# 404表示没有这个页面
response_body = "====sorry, file not found====".encode("utf-8")
response_headers = "HTTP/1.1 404 not found\r\n"
response_headers += "Content-Type: text/html; charset=utf-8\r\n"
response_headers += "Content-Length: %d\r\n" % (len(response_body))
response_headers += "\r\n"
else:
# 2.1 准备发送给浏览器的数据-->body
response_body = f.read()
f.close()
# 2.2 准备发送给浏览器的数据-->header
response_headers = "HTTP/1.1 200 OK\r\n"
# 2.3 发送body数据长度,让服务器根据长度确认body数据已完成接收,实现长连接
response_headers += "Content-Length: %d\r\n" % (len(response_body))
# 2.4 用一个空的行与body进行隔开
response_headers += "\r\n"
finally:
# 因为头信息在组织的时候,是按照字符串组织的,不能与以二进制打开文件读取的数据合并,因此分开发送
# 先发送response的头信息
client_socket.send(response_headers.encode("utf-8"))
# 再发送body
client_socket.send(response_body)
# 长连接下不需要关闭套接字,而是在header头中声明要发送的body长度
# client_socket.close() # 设置服务器静态资源的路径
DOCUMENTS_ROOT = "./html" def main():
# python3 xxx.py 7890
if len(sys.argv) == 2:
port = sys.argv[1]
if port.isdigit():
port = int(port)
else:
print("运行方式如: python3 xxx.py 7890")
return
server_addr = ("", port)
http_server = WSGIServer(server_addr)
print("web Server: Serving HTTP on port %d ...\n" % port)
http_server.serve_forever() if __name__ == "__main__":
main()

13.Web静态服务器-IO多路复用(基于epoll的单进程单线程长连接高并发)

# html文件夹网盘链接: https://pan.baidu.com/s/1wbZ92KLstff3GurLV_C0lg  密码: hp9o
# 下载完命令行解压后放到程序的同级路径下,解压命令: tar -zxvf 06_html.tar.gz -C ./
import sys
import socket
import re
import select class WsgiServer:
"""定义一个WSGI服务器的类"""
def __init__(self, server_addr):
# 1.创建数据流套接字
self.tcp_server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
# 2.设置当服务器先close 即服务器端4次挥手之后资源能够立即释放,保证下次运行程序时可以立即绑定7890端口
self.tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
# 3.绑定服务器地址
self.tcp_server_socket.bind(server_addr)
# 4.套接字由主动改为监听,并设置队列长度
self.tcp_server_socket.listen(128) # 5.创建epoll对象
self.epoll = select.epoll()
# 6.将tcp服务器的监听套接对应的fd注册到epoll中进行监听,如果fd已经注册过,则会发生异常
self.epoll.register(self.tcp_server_socket.fileno(), select.EPOLLIN | select.EPOLLET)
# 7.创建添加的fd对应的套接字
self.fd_socket = dict() def serve_forever(self):
"""循环运行服务器,等待客户端链接并为客户端服务"""
# 等待新的客户端连接或者已连接的客户端发送过来数据
while True:
# epoll进行fd扫描的地方,未指定超时时间则为阻塞等待,直到系统检测到数据到来,通过事件通知方式告诉程序才会解阻塞
epoll_list = self.epoll.poll() # epoll_list列表结构: [(fd, event),]
# fd: 套接字对应的文件描述符
# event: 这个文件描述符到底是什么事件,例如可以调用recv接收等 # 对事件进行判断
for fd, event in epoll_list:
# 如果是服务器的监听套接字被激活可以收数据,那么意味着可以进行accept,即有新的客户端连接
if fd == self.tcp_server_socket.fileno():
new_socket, new_addr = self.tcp_server_socket.accept() # 向epoll中注册连接socket的可读事件,EPOLLIN(可读),EPOLLOUT(可写),EPOLLET(ET模式)
# LT模式: 当epoll检测到描述符事件发生并将此事件通知应用程序
# LT模式下应用程序可以不立即处理该事件,下次调用epoll时,会再次响应应用程序并通知此事件
# ET模式: 当epoll检测到描述符事件发生并将此事件通知应用程序
# LT模式下应用程序必须立即处理该事件,如果不处理,下次调用epoll时,不会再次响应应用程序并通知此事件
self.epoll.register(new_socket.fileno(), select.EPOLLIN | select.EPOLLET)
# 记录这个信息
self.fd_socket[new_socket.fileno()] = new_socket
# 如果是客户端发送数据,客户端套接字将被激活,服务器可以接收到客服端发送的数据
elif event == select.EPOLLIN:
# # 从激活 fd 上接收
request = self.fd_socket[fd].recv(1024).decode("utf-8")
if request:
self.handle_request(request, self.fd_socket[fd])
else:
# 在epoll中注销客户端的信息
self.epoll.unregister(fd)
# 关闭客户端的文件句柄
self.fd_socket[fd].close()
# 在字典中删除与已关闭客户端相关的信息
del self.fd_socket[fd] def handle_request(self, request, client_socket):
"""为客户端服务"""
# 1.接收浏览器发送过来的HTTP请求
request_header_lines = request.splitlines()
for i, line in enumerate(request_header_lines):
print(i, line) # GET /index.html HTTP/1.1
http_request_line = request_header_lines[0]
ret = re.match(r"([^/]*)([^ ]+)", http_request_line)
if ret:
print("正则提取数据:", ret.group(1))
print("正则提取数据:", ret.group(2))
get_file_name = ret.group(2)
# 如果没有指定访问哪个页面,则默认访问index.html
# GET / HTTP/1.1
if get_file_name == "/":
get_file_name = DOCUMENTS_ROOT + "/index.html"
else:
get_file_name = DOCUMENTS_ROOT + get_file_name
print("要访问的完整路径是: %s" % get_file_name) # 2.返回HTTP格式的数据给浏览器
try:
f = open(get_file_name, "rb")
except IOError:
# 404表示没有这个页面
response_body = "====sorry, file not found====".encode("utf-8")
response_headers = "HTTP/1.1 404 not found\r\n"
response_headers += "Content-Type: text/html; charset=utf-8\r\n"
response_headers += "Content-Length: %d\r\n" % (len(response_body))
response_headers += "\r\n"
else:
# 2.1 准备发送给浏览器的数据-->body
response_body = f.read()
f.close()
# 2.2 准备发送给浏览器的数据-->header
response_headers = "HTTP/1.1 200 OK\r\n"
# 2.3 发送body数据长度,让服务器根据长度确认body数据已完成接收,实现长连接
response_headers += "Content-Length: %d\r\n" % (len(response_body))
# 2.4 用一个空的行与body进行隔开
response_headers += "\r\n"
finally:
# 因为头信息在组织的时候,是按照字符串组织的,不能与以二进制打开文件读取的数据合并,因此分开发送
# 先发送response的头信息
client_socket.send(response_headers.encode("utf-8"))
# 再发送body
client_socket.send(response_body)
# 长连接下不需要关闭套接字,而是在header头中声明要发送的body长度
# client_socket.close() # 设置服务器静态资源的路径
DOCUMENTS_ROOT = "./html" def main():
# python3 xxx.py 7890
if len(sys.argv) == 2:
port = sys.argv[1]
if port.isdigit():
port = int(port)
else:
print("运行方式如: python3 xxx.py 7890")
return
server_addr = ("", port)
http_server = WsgiServer(server_addr)
print("web Server: Serving HTTP on port %d ...\n" % port)
http_server.serve_forever() if __name__ == "__main__":
main()

14.C10K问题(单机1万网络并发连接和数据处理能力)

1.C10K问题的本质:
        C10K问题本质上是操作系统的问题,对于Web1.0/2.0时代的操作系统而言, 传统的同步阻塞I/O模型都是一样的

        处理的方式都是requests per second并发10K和100的区别关键在于CPU

        创建的进程线程多了,数据拷贝频繁(缓存I/O,内核将数据拷贝到用户进程空间,阻塞)

        进程/线程上下文切换消耗大,导致操作系统崩溃,这就是C10K问题的本质

2.C10K解决方案: 每个进程/线程同时处理多个连接(IO多路复用)

        1.尽量避免服务器处理超过1万个的并发连接

        2.通过改进操作系统内核以及用事件驱动服务器(典型技术实现如:Nginx和Node)代替线程服务器(典型代表:Apache)

        3.epoll能达到10k并发,但是epoll有Linux,Unix平台限制

        3.使用libevent库开发,libevent库是对/dev/poll, kqueue, event ports, select, poll和epoll接口的封装

3.文件句柄限制

        1.问题概述:

            在linux下编写网络服务器程序的朋友肯定都知道每一个tcp连接都要占一个文件描述符

            一旦这个文件描述符使用完了,新的连接到来返回给我们的错误是"Socket/File:Can't open so many files"

            这是因为操作系统对可以打开的最大文件数的限制

        2.进程限制

            执行 ulimit -n 输出 1024, 说明对于一个进程而言最多只能打开1024个文件

            要采用此默认配置最多也就可以并发上千个TCP连接,临时修改: ulimit -n 1000000

            但是这种临时修改只对当前登录用户目前的使用环境有效,系统重启或用户退出后就会失效

            重启后失效的修改,编辑 /etc/security/limits.conf 文件修改后内容为

                soft nofile 1000000

                hard nofile 1000000

            永久修改: 编辑/etc/rc.local 在其后添加如下内容

                ulimit -SHn 1000000

        3.全局限制

            执行 cat /proc/sys/fs/file-nr

            输出 3040    0      194572

            输出释义: 已经分配的文件句柄数, 已经分配但没有使用的文件句柄数, 最大文件句柄数

            但在kernel 2.6版本中第二项的值总为0,这并不是一个错误,它实际上是已经分配的文件描述符无一浪费的都已经被使用了

            我们可以把这个数值改大些,用 root 权限修改 /etc/sysctl.conf 文件

                fs.file-max = 1000000

                net.ipv4.ip_conntrack_max = 1000000

                net.ipv4.netfilter.ip_conntrack_max = 1000000

4.端口号范围限制

        问题误区:

            操作系统上端口号1024以下是系统保留的,从1024-65535是用户使用的

            由于每个TCP连接都要占一个端口号,所以我们最多可以有60000多个并发连接

        如何标识一个TCP连接

            系统用一个4四元组来唯一标识一个TCP连接: {local ip, local port,remote ip,remote port}

            《UNIX网络编程: 卷一》第四章中对accept的讲解来看看概念性的东西,第二个参数cliaddr代表了客户端的ip地址和端口号

            而我们作为服务端实际只使用了bind时这一个端口,说明端口号65535并不是并发量的限制

        server最大tcp连接数

            server通常固定在某个本地端口上监听,等待client的连接请求

            不考虑地址重用(unix的SO_REUSEADDR选项)的情况下,即使server端有多个ip,本地监听端口也是独占的

            因此server端tcp连接4元组中只有remote ip(也就是client ip)和remote port(客户端port)是可变的

            得出最大tcp连接为客户端ip数×客户端port数

对IPV4,不考虑ip地址分类等因素,最大tcp连接数约为2的32次方(ip数) × 2的16次方(port数)

            得出server端单机最大tcp连接数约为2的48次方

5.文件句柄限制和端口范围限制小结

        上述得出的是理论上的单机TCP并发连接数,实际上单机并发连接数要受硬件资源(内存),网络资源(带宽)的限制

6.C10K问题参考自如下链接:

        http://www.52im.net/thread-561-1-1.html

        http://www.52im.net/thread-566-1-1.html

15.C10M问题(单机1000万网络并发连接和数据处理能力)

1.C10M问题的本质:

        1.硬件上完全可以处理1000万个以上的并发连接,如果它们不能,那是因为你选择了错误的软件,而不是底层硬件的问题

        2.OS的内核不是解决C10M问题的办法,恰恰相反OS的内核正是导致C10M问题的关键所在

        3.不要让OS内核执行所有繁重的任务:

            将数据包处理,内存管理,处理器调度等任务从内核转移到应用程序高效地完成

            让诸如Linux这样的OS只处理控制层,数据层完全交给应用程序来处理

2.C10M问解决方案:

        1.CPU亲和性 & 内存局域性

        2.RSS, RPS, RFS, XPS

        3.IRQ 优化

        4.Kernel 优化

        5. CPU 内存 网络

3.C10M问题参考自如下链接:

        http://www.52im.net/thread-568-1-1.html

        http://www.52im.net/thread-578-1-1.html

14_Web服务器-并发服务器的更多相关文章

  1. web服务器-并发服务器2

    阅读目录 1.Web静态服务器-5-非堵塞模式 2.Web静态服务器-6-epoll 3.Web静态服务器-7-gevent版 4.知识扩展-C10K问题 一.Web静态服务器-5-非堵塞模式 单进程 ...

  2. Web服务器-并发服务器-Epoll(3.4.5)

    @ 目录 1.介绍 2.代码 关于作者 1.介绍 epoll是一种解决方案,nginx就是用的这个 中心思想:不要再使用多进程,多线程了,使用单进程,单线程去实现并发 在上面博客实现的代码中使用过的轮 ...

  3. Python复习笔记(十)Http协议--Web服务器-并发服务器

    1. HTTP协议(超文本传输协议) 浏览器===>服务器发送的请求格式如下:(浏览器告诉服务器,浏览器的信息) GET / HTTP/1.1 Host: www.baidu.com Conne ...

  4. Web服务器-并发服务器-长连接(3.4.4)

    @ 目录 1.说明 2.代码 关于作者 1.说明 每次new_socket都被强制关闭,造成短连接 所提不要关闭套接字 但是不关闭的话,浏览器不知道发完没有啊 此时用到header的属性Content ...

  5. Web服务器-并发服务器-单进程单线程非堵塞方式(3.4.3)

    @ 目录 1.分析 2.代码 关于作者 1.分析 当socket去监听的时候,是堵塞的状态 通过tcp_sever_socket.setblocking(False)去设置不堵塞 当socket发现没 ...

  6. Web服务器-并发服务器-协程 (3.4.2)

    @ 目录 1.分析 2.代码 关于作者 1.分析 随着网站的用户量越来愈多,通过多进程多线程的会力不从心 使用协程可以缓解这一问题 只要使用gevent实现 2.代码 from socket impo ...

  7. Web服务器-并发服务器-多进程(3.4.1)

    @ 目录 1.优化分析 2.代码 3. 关于作者 1.优化分析 在单进程的时候,相当于 是来一个客户,派一个人去服务一下 效率低,现在使用多进程来服务 假设场景 100个人同时访问页面 单进程:一次处 ...

  8. linux学习之多高并发服务器篇(一)

    高并发服务器 高并发服务器 并发服务器开发 1.多进程并发服务器 使用多进程并发服务器时要考虑以下几点: 父最大文件描述个数(父进程中需要close关闭accept返回的新文件描述符) 系统内创建进程 ...

  9. PHP写的异步高并发服务器,基于libevent

    PHP写的异步高并发服务器,基于libevent 博客分类: PHP PHPFPSocketLinuxQQ  本文章于2013年11月修改. swoole已使用C重写作为PHP扩展来运行.项目地址:h ...

随机推荐

  1. Mixed Precision Training —— caffe-float16

    简介 最近有了突如其来的想法,如何把caffe的变得更小更快.后来翻到Nvidia开发caffe-float16,同时也看到它的论文.看完大致了解一番后,就做一下记录. 该工作的目标是,减少网络的所需 ...

  2. IDEA的基本使用技巧

    博主在大学里学习的专业是计算机科学与技术,在大三的时候才开始接触 “加瓦”,学习加瓦首先就需要一个运行环境,因为受到了老师们的影响,我第一个编辑JAVA的软件环境便是Eclipse,在学校里学习和使用 ...

  3. image classification backbone 汇总分析

    下面是一个list,可以详细看一下 image_classification = [['name','top1_acc','top5_acc','size'],['FixEfficientNet-L2 ...

  4. C#LeetCode刷题之#171-Excel表列序号(Excel Sheet Column Number)

    问题 该文章的最新版本已迁移至个人博客[比特飞],单击链接 https://www.byteflying.com/archives/3852 访问. 给定一个Excel表格中的列名称,返回其相应的列序 ...

  5. C#LeetCode刷题之#665-非递减数列( Non-decreasing Array)

    问题 该文章的最新版本已迁移至个人博客[比特飞],单击链接 https://www.byteflying.com/archives/3732 访问. 给定一个长度为 n 的整数数组,你的任务是判断在最 ...

  6. go微服务系列(三) - 服务调用(http)

    1. 关于服务调用 2. 基本方式调用服务 3. 服务调用正确姿势(初步) 3.1 服务端代码 3.2 客户端调用(重要) 1. 关于服务调用 这里的服务调用,我们调用的可以是http api也可以是 ...

  7. 蒲公英 · JELLY技术周刊 Vol.17: 90 行代码实现 React Hooks

    蒲公英 · JELLY技术周刊 Vol.17 React Hooks 相信大家都不陌生,自被设计出以来就备受好评,在很多场景中都有极高的使用率,其中原理更是很多大厂面试中的必考题,很多朋友都能够如数家 ...

  8. 谈谈对volatile关键字的理解

    1. volatile的特性 volatile是Java语言提供的一种轻量级的同步机制,用来确保将变量得更新操作通知到其它线程.具备三种特性: 保证变量的可见性: 对于volatile修饰的变量进行单 ...

  9. Python | 浅谈并发锁与死锁问题

    本文始发于个人公众号:TechFlow,原创不易,求个关注 今天是Python专题的第24篇文章,我们一起来聊聊多线程场景当中不可或缺的另外一个部分--锁. 如果你学过操作系统,那么对于锁应该不陌生. ...

  10. Python 常用的操作文件代码

    1:统计list中相同的个数,并按大小排序. original_list = ['a', 'b', 'b', 'a', 'd', 'd', 'b', 'z', 'c', 'b', 'r', 's', ...