nginx应用及性能调优
1. Nginx 反向代理实现
说反向代理之前 先说什么是正向代理,
正向代理是指客户端通过 代理服务器访问目标服务器,客户端直接访问代理服务器,在由代理服务器访问目标服务器并返回客户端并返回 。
例如vpn, 客户端无法直接访问服务端,所有由 代理服务器访问, 此时代理服务器 代理的对象为客户端
正向代理示意图:
反向代理是指 客户端访问目标服务器,在目标服务内部有一个统一接入的服务器,并由此服务去访问内部的真实服务,这个过程当中客户端对代理服务器是无感的,此时 代理服务器的对象是后端的真实服务
例如负载均衡,可能我们部署了连个tomcat,但是用户是无感的,由代理服务器去选择
反向代理示意图:
总结: 正反向代理只是业务的场景 , 结构不同,但是其技术实现都是一样的
正向代理 代理的是客户端,
反向代理 代理的服务端.
基本配置,使用proxy_pass 属性即可
# 拦截/test 反向代理至 本机的8010服务
# http://127.0.0.1:8010 后面如果不加斜杠,则会将拦截的url拼接到后面http://127.0.0.1:8010/test
location /test/ {
proxy_pass http://127.0.0.1:8010;
}
相关参数,(相关时间参数都是秒)
ngx_http_proxy_module模块文档:
http://nginx.org/en/docs/http/ngx_http_proxy_module.html
proxy_pass http://127.0.0.1:8010; # 代理服务
proxy_redirect off; # 是否允许重定向
proxy_set_header Host $host; # 向代理的后端传 header
proxy_set_header X-Forwarded-For $remote_addr; # 传客户端ip
proxy_connect_timeout 90; # 连接代理服务超时时间(发起握手的超时时间)
proxy_send_timeout 90; # 后端处理完成后,nginx 发送消息的最大时间
proxy_read_timeout 90; # 连接成功后,等候后端服务器响应时间
proxy_buffer_size 4k; # 设置缓冲区大小(缓存后端响应的响应头信息),
proxy_buffers 4 32k; #设置缓冲区的数量和大小(缓存响应体)。四个32k的缓存 不够才开辟新的
proxy_busy_buffers_size 64k; # 设置 专门划出一部分buffer 向客户端传送数据,其他部分的buffer继续读取后端响应,建议为proxy_buffers中单个缓冲区的2倍,这个缓存 是proxy_buffers和proxy_buffer_size的一部分。
proxy_temp_file_write_size 64k;# 当proxy_buffers和proxy_buffer_size的buffer满时,会将额外的数据存到临时文件,这个值指定临时文件的大小
2. 负载均衡
通过proxy_pass 可以把请求代理至后端服务,但是为了实现更高的负载及性能, 我们的后端服务通常是多个, 这个是时候可以通过upstream 模块实现负载均衡。
master进程会将我么配置的待负载服务进行监控,当有服务挂掉时,会自动剔除出去,当服务又恢复时,则会重新添加进去
ngx_http_upstream_module模块
http://nginx.org/en/docs/http/ngx_http_upstream_module.html
基本实现:
# 待负载的 服务端地址列表,默认为轮询的方式负载
upstream backend {
server 127.0.0.1:8010;
server 127.0.0.1:8080;
}
#拦截请求 并转到负载地址
location / {
proxy_pass http://backend;
}
加权重的方式(不加权重默认都为1):
# 8080 的访问量是 8081的二倍
upstream backend {
server 127.0.0.1:8010 weight=1;
server 127.0.0.1:8080 weight=2;
}
upstream 相关参数:
upstream dynamic {
# weight 加权重
server backend1.example.com weight=5;
# 设置这个服务的 在五秒内 三次失败 则剔除该服务,并且下次检测时间为3秒后,即禁用3s
server backend2.example.com:8080 fail_timeout=5s max_fails=3;
# 该服务同时最多连接数量,默认为0 没有限制
server 192.0.2.1 max_conns=200;
# 权重负载均衡模式下,当服务重新可用时,权重在多少时间内恢复,默认为0
server backend3.example.com slow_start=5s;
# 设置该服务为备胎,如果上面几个都挂了 才访问这个
server backup2.example.com:8080 backup;
}
upstream 负载均衡算法
weight: 轮询加权重 (默认)
ip_hash : 基于Hash 计算 ,用于保持session 一致性,确保了来自同一客户端的请求将始终传递到同一服务器
除非该服务器不可用
upstream backend {
ip_hash;
server backend1.example.com;
server backend2.example.com;
}
- url_hash: 对url进行hash算法,固定的url访问固定的服务器,(静态资源缓存,节约存储)
upstream backend {
hash $request_uri;
server backend1.example.com;
server backend2.example.com;
}
- least_conn: 将请求传递到活跃连接数最少的服务器。如果有多个这样的服务器,则依次使用加权循环平衡方法进行尝试。
upstream backend {
least_conn;
server backend1.example.com weight=5;
server backend2.example.com weight=3;
server backend3.example.com;
}
- least_time : 将请求传递到服务器的平均响应时间最短且活动连接数最少,如果有多个这样的服务器,则依次使用加权循环平衡方法进行尝试。
3. nginx缓存
将后端的js 图片 等静态资源缓存在nginx服务器上 减少后端局域网的压力
配置 缓存:
upstream backend {
server 127.0.0.1:8010 weight=1;
server 127.0.0.1:8080 weight=2;
server 127.0.0.1:8030 weight=1 backup;
}
# 在http跟节点中配置
# proxy_cache_path 缓存文件存放路径
# levels 缓存层级及目录位数,用于分散缓存文件 1:2 代表 如果生成的缓存文件为jiojndong481lj,那么存放的路# # 径就为 j/1l/jiojndong481lj,也可以继续像下分 1:2:1 则为: j/1l/8/jiojndong481lj
# keys_zone 指定缓存区名称及缓存区内存大小
# inactive 有效期,20天 缓存数据没有使用 就清除
# max_size 最大存放硬盘的数据
proxy_cache_path /data/nginx/cache_test levels=1:2 keys_zone=cache_test:500m inactive=20d max_size=1g;
location / {
proxy_pass http://backend;
# 指定缓存区
proxy_cache cache_test;
#指定以什么作为编码md5值做为Key (本案例为全路径 www.test.com/user/config)
proxy_cache_key $host$uri$is_args$args;
#对不同的HTTP状态码设置不同的缓存时间(200 和 304 的有效期为12小时)
proxy_cache_valid 200 304 12h;
}
通过 www.test.com/user/config
访问后端的js文件 ,则会在 e/1b文件夹下生成b1490d97f2b90b9fe92a0f6e949b91be
文件
清除缓存
手动删除缓存文件夹
采用第三方模块 ngx_cache_purge 实现。(需要在安装时指定)
官网:http://labs.frickle.com/nginx_ngx_cache_purge/
下载解压后重新编译nginx,进入nginx安装包目录 重新安装 --add-module为模块解压的全路径,(需要依赖http_stub_status_module和http_ssl_module) ,具体安装方法 参考上一篇nginx文章
./configure --with-http_stub_status_module --with-http_ssl_module --add-module=/root/svr/packages/ngx_cache_purge-2.3
配置: 使用正则匹配 ,/clear/(正则), 使用$1 取得正则匹配到的第一个参数,即为 clear后面的url
例如: /clear/user/config
则 $1 为/user/config
location ~ /clear(/.*) {
#允许访问的IP
allow 127.0.0.1;
#禁止访问的IP
deny all;
#配置清除指定缓存区和路径(与proxy_cache_key一至)
proxy_cache_purge cache_test $host$1$is_args$args;
}
使用:如果清除的缓存不存在 则404
# 访问清除路径
http://www.test.com/clear/user/config?a=1
# 清除的缓存key
www.test.com/user/config?a=1
4. nginx性能调优
worker_processes number;
每个worker进程都是单线程的进程,默认为一个,虽然异步非阻塞的模型可以充分使用这个线程.
但是如果有可能出现阻塞式调用,或者请求量过大,那么需要配置稍多一些的worker进程。
# 一般配置为 CPU核心数,充分使用cpu
worker_processes 4;
但是 每个线程选择CPU核 处理时 是不固定的 有可能使某一个CPU核心负载过大,如果是linux系统,可以固定每个线程的CPU
# 例如 CPU核心数为4的情况
worker_processes 4;
worker_cpu_affinity 1000 0100 0010 0001;
同样 我们也可以 配置 每个worker线程最大的连接数
#默认的配置为 1024 可以根据需要调大一些
events {
worker_connections 1024;
}
那么 一个nginx 最大的连接数就为
worker_connections*worker_processes
worker_priority number;
Linux系统中,进程占用CPU执行任务的优先级由静态优先级和系统内核的调整共同决定,
静态优先级 为用户自定义 ,-20 ~ +19,-20为最高优先级,19位最低,默认为0,
内核会根据进程的实际执行情况 去调整优先级 一般为 ±5
worker_processes 4;
worker_cpu_affinity 1000 0100 0010 0001;
#调整优先级 为-5 ,一般不建议低于这个值
worker_priority -5;
worker_rlimit_nofile limit;
更改worker进程的最大打开文件数限制。如果没设置的话,这个值为操作系统的限制“ulimit -a”,“too many open files”这个错误就可以调大这个值
worker_processes 4;
worker_cpu_affinity 1000 0100 0010 0001;
worker_priority -5;
#worker线程最大打开文件数
worker_rlimit_nofile 65535;
accept_mutex[on|off]
跨进程锁
worker进程 的负载均衡锁,如果
accept_mutex
启用,则当有新的连接时,只有获取到锁的worker线程 会被唤醒,并处理新的连接,并将锁依次向下传递(worker当前处理连接数大于worker_connections的7/8时,将不会再去争抢锁),如果关闭,则当有新的连接时 则会唤醒所有的worker ,最后只交给一个进程执行 (惊群问题),造成资源的浪费,所以为了解决这个问题,在1.11.3版之前,默认值为
on
。之后因为linux epool的实现 本身解决了这个问题 默认为off.#配置在events中 所有进程共享
events{
accept_mutex on;
}
nginx应用及性能调优的更多相关文章
- Tomcat+Nginx+Lvs部署方案与性能调优
立项要求:用户登录并发数达到1000vuser.原项目设计没有Nginx和LVS,经过性能测试并发数最高到400,就报响应超时,且系统资源消耗严重.经过和架构师商议决定先加入Nginx解决负载均衡处理 ...
- nginx+keepalived+tomcat之tomcat性能调优
body{ font-family: Nyala; font-size: 10.5pt; line-height: 1.5;}html, body{ color: ; background-color ...
- Nginx性能调优
[调优]Nginx性能调优 一.Nginx优化配置 1.主配置文件优化:# vi /usr/local/nginx/conf/nginx.conf------------------------- ...
- Nginx 性能调优
原文地址:http://nginx.com/blog/tuning-nginx/ Tuning NGINX for Performance Nginx 性能调优 NGINX is well known ...
- web前端性能调优
最近2个月一直在做手机端和电视端开发,开发的过程遇到过各种坑.弄到快元旦了,终于把上线了.2个月干下来满满的的辛苦,没有那么忙了自己准备把前端的性能调优总结以下,以方便以后自己再次使用到的时候得于得心 ...
- [网站性能2]Asp.net平台下网站性能调优的实战方案
文章来源:http://www.cnblogs.com/dingjie08/archive/2009/11/10/1599929.html 前言 最近帮朋友运营的平台进行了性能调优,效果还不错, ...
- Asp.net平台下网站性能调优的实战方案(转)
转载地址:http://www.cnblogs.com/chenkai/archive/2009/11/07/1597795.html 前言 最近帮朋友运营的平台进行了性能调优,效果还不错,所以写出来 ...
- Java 应用性能调优实践
Java 应用性能优化是一个老生常谈的话题,笔者根据个人经验,将 Java 性能优化分为 4 个层级:应用层.数据库层.框架层.JVM 层.通过介绍 Java 性能诊断工具和思路,给出搜狗商业平台的性 ...
- Advacned Puppet: Puppet Master性能调优
本文是Advanced Puppet系列的第一篇:Puppet master性能调优,谈一谈如何优化和提高C/S架构下master端的性能. 故事情节往往惊人地类似:你是一名使用Puppet管理线上业 ...
- linux性能调优概述
- 什么是性能调优?(what) - 为什么需要性能调优?(why) - 什么时候需要性能调优?(when) - 什么地方需要性能调优?(where) - 什么人来进行性能调优?(who) - 怎么样 ...
随机推荐
- 强化学习从基础到进阶-常见问题和面试必知必答[7]:深度确定性策略梯度DDPG算法、双延迟深度确定性策略梯度TD3算法详解
强化学习从基础到进阶-常见问题和面试必知必答[7]:深度确定性策略梯度DDPG算法.双延迟深度确定性策略梯度TD3算法详解 1.核心词汇 深度确定性策略梯度(deep deterministic po ...
- 强化学习从基础到进阶-常见问题和面试必知必答[4]::深度Q网络-DQN、double DQN、经验回放、rainbow、分布式DQN
强化学习从基础到进阶-常见问题和面试必知必答[4]::深度Q网络-DQN.double DQN.经验回放.rainbow.分布式DQN 1.核心词汇 深度Q网络(deep Q-network,DQN) ...
- 2.8 PE结构:资源表详细解析
在Windows PE中,资源是指可执行文件中存放的一些固定不变的数据集合,例如图标.对话框.字符串.位图.版本信息等.PE文件中每个资源都会被分配对应的唯一资源ID,以便在运行时能够方便地查找和调用 ...
- Advanced Installer傻瓜式打包教程
工具 Advanced Installer 11.0 前言 这个包不复杂,没有服务和注册表等操作,但需要.NET Framework 4.5和MySQL,同时需要初始化一下数据库,下面一起来实操一下. ...
- FOG Project的 FOS 编译
FOG Project系统是一个免费的开源计算机网络克隆和管理解决方案系统,与传统的Ghost有很大的不同,如果您是计算机维护管理人员,当有大量机器需要同时部署上线的时候FOG Project是一个可 ...
- 2.3 实验:用linxerUnpack进行通用脱壳--《恶意代码分析实战》
Lab01-03.exe 实验内容: 1.将文件上传到http://www.VirusTotal.com 进行分析并查看报告.文件匹配到了已有的反病毒软件特征吗? 2.是否有这个文件被 ...
- Python-pymysql如何向SQL语句中传参
方法一:不传递参数 ## 方式一.不传递参数 id = "01" name = "语文" sql = "select * from course wh ...
- Linux 列出文件的绝对路径
1.使用ls中列出文件的绝对路径ls | sed "s:^:`pwd`/:" 2.列出当前目录下的所有文件(包括隐藏文件)的绝对路径, 对目录不做递归find $PWD -maxd ...
- C# 二十年语法变迁之 C# 7参考
C# 二十年语法变迁之 C# 7参考 https://benbowen.blog/post/two_decades_of_csharp_iii/ 自从 C# 于 2000 年推出以来,该语言的规模已经 ...
- test-01-java 单元测试框架 junit 入门介绍
拓展阅读 junit5 系列 基于 junit5 实现 junitperf 源码分析 Auto generate mock data for java test.(便于 Java 测试自动生成对象信息 ...