nginx应用及性能调优
1. Nginx 反向代理实现
说反向代理之前 先说什么是正向代理,
正向代理是指客户端通过 代理服务器访问目标服务器,客户端直接访问代理服务器,在由代理服务器访问目标服务器并返回客户端并返回 。
例如vpn, 客户端无法直接访问服务端,所有由 代理服务器访问, 此时代理服务器 代理的对象为客户端
正向代理示意图:

反向代理是指 客户端访问目标服务器,在目标服务内部有一个统一接入的服务器,并由此服务去访问内部的真实服务,这个过程当中客户端对代理服务器是无感的,此时 代理服务器的对象是后端的真实服务
例如负载均衡,可能我们部署了连个tomcat,但是用户是无感的,由代理服务器去选择
反向代理示意图:

总结: 正反向代理只是业务的场景 , 结构不同,但是其技术实现都是一样的
正向代理 代理的是客户端,
反向代理 代理的服务端.
基本配置,使用proxy_pass 属性即可
# 拦截/test 反向代理至 本机的8010服务
# http://127.0.0.1:8010 后面如果不加斜杠,则会将拦截的url拼接到后面http://127.0.0.1:8010/test
location /test/ {
proxy_pass http://127.0.0.1:8010;
}
相关参数,(相关时间参数都是秒)
ngx_http_proxy_module模块文档:
http://nginx.org/en/docs/http/ngx_http_proxy_module.html
proxy_pass http://127.0.0.1:8010; # 代理服务
proxy_redirect off; # 是否允许重定向
proxy_set_header Host $host; # 向代理的后端传 header
proxy_set_header X-Forwarded-For $remote_addr; # 传客户端ip
proxy_connect_timeout 90; # 连接代理服务超时时间(发起握手的超时时间)
proxy_send_timeout 90; # 后端处理完成后,nginx 发送消息的最大时间
proxy_read_timeout 90; # 连接成功后,等候后端服务器响应时间
proxy_buffer_size 4k; # 设置缓冲区大小(缓存后端响应的响应头信息),
proxy_buffers 4 32k; #设置缓冲区的数量和大小(缓存响应体)。四个32k的缓存 不够才开辟新的
proxy_busy_buffers_size 64k; # 设置 专门划出一部分buffer 向客户端传送数据,其他部分的buffer继续读取后端响应,建议为proxy_buffers中单个缓冲区的2倍,这个缓存 是proxy_buffers和proxy_buffer_size的一部分。
proxy_temp_file_write_size 64k;# 当proxy_buffers和proxy_buffer_size的buffer满时,会将额外的数据存到临时文件,这个值指定临时文件的大小
2. 负载均衡
通过proxy_pass 可以把请求代理至后端服务,但是为了实现更高的负载及性能, 我们的后端服务通常是多个, 这个是时候可以通过upstream 模块实现负载均衡。
master进程会将我么配置的待负载服务进行监控,当有服务挂掉时,会自动剔除出去,当服务又恢复时,则会重新添加进去
ngx_http_upstream_module模块
http://nginx.org/en/docs/http/ngx_http_upstream_module.html
基本实现:
# 待负载的 服务端地址列表,默认为轮询的方式负载
upstream backend {
server 127.0.0.1:8010;
server 127.0.0.1:8080;
}
#拦截请求 并转到负载地址
location / {
proxy_pass http://backend;
}
加权重的方式(不加权重默认都为1):
# 8080 的访问量是 8081的二倍
upstream backend {
server 127.0.0.1:8010 weight=1;
server 127.0.0.1:8080 weight=2;
}
upstream 相关参数:
upstream dynamic {
# weight 加权重
server backend1.example.com weight=5;
# 设置这个服务的 在五秒内 三次失败 则剔除该服务,并且下次检测时间为3秒后,即禁用3s
server backend2.example.com:8080 fail_timeout=5s max_fails=3;
# 该服务同时最多连接数量,默认为0 没有限制
server 192.0.2.1 max_conns=200;
# 权重负载均衡模式下,当服务重新可用时,权重在多少时间内恢复,默认为0
server backend3.example.com slow_start=5s;
# 设置该服务为备胎,如果上面几个都挂了 才访问这个
server backup2.example.com:8080 backup;
}
upstream 负载均衡算法
weight: 轮询加权重 (默认)
ip_hash : 基于Hash 计算 ,用于保持session 一致性,确保了来自同一客户端的请求将始终传递到同一服务器
除非该服务器不可用
upstream backend {
ip_hash;
server backend1.example.com;
server backend2.example.com;
}
- url_hash: 对url进行hash算法,固定的url访问固定的服务器,(静态资源缓存,节约存储)
upstream backend {
hash $request_uri;
server backend1.example.com;
server backend2.example.com;
}
- least_conn: 将请求传递到活跃连接数最少的服务器。如果有多个这样的服务器,则依次使用加权循环平衡方法进行尝试。
upstream backend {
least_conn;
server backend1.example.com weight=5;
server backend2.example.com weight=3;
server backend3.example.com;
}
- least_time : 将请求传递到服务器的平均响应时间最短且活动连接数最少,如果有多个这样的服务器,则依次使用加权循环平衡方法进行尝试。
3. nginx缓存
将后端的js 图片 等静态资源缓存在nginx服务器上 减少后端局域网的压力
配置 缓存:
upstream backend {
server 127.0.0.1:8010 weight=1;
server 127.0.0.1:8080 weight=2;
server 127.0.0.1:8030 weight=1 backup;
}
# 在http跟节点中配置
# proxy_cache_path 缓存文件存放路径
# levels 缓存层级及目录位数,用于分散缓存文件 1:2 代表 如果生成的缓存文件为jiojndong481lj,那么存放的路# # 径就为 j/1l/jiojndong481lj,也可以继续像下分 1:2:1 则为: j/1l/8/jiojndong481lj
# keys_zone 指定缓存区名称及缓存区内存大小
# inactive 有效期,20天 缓存数据没有使用 就清除
# max_size 最大存放硬盘的数据
proxy_cache_path /data/nginx/cache_test levels=1:2 keys_zone=cache_test:500m inactive=20d max_size=1g;
location / {
proxy_pass http://backend;
# 指定缓存区
proxy_cache cache_test;
#指定以什么作为编码md5值做为Key (本案例为全路径 www.test.com/user/config)
proxy_cache_key $host$uri$is_args$args;
#对不同的HTTP状态码设置不同的缓存时间(200 和 304 的有效期为12小时)
proxy_cache_valid 200 304 12h;
}
通过 www.test.com/user/config访问后端的js文件 ,则会在 e/1b文件夹下生成b1490d97f2b90b9fe92a0f6e949b91be文件
清除缓存
手动删除缓存文件夹
采用第三方模块 ngx_cache_purge 实现。(需要在安装时指定)
官网:http://labs.frickle.com/nginx_ngx_cache_purge/
下载解压后重新编译nginx,进入nginx安装包目录 重新安装 --add-module为模块解压的全路径,(需要依赖http_stub_status_module和http_ssl_module) ,具体安装方法 参考上一篇nginx文章
./configure --with-http_stub_status_module --with-http_ssl_module --add-module=/root/svr/packages/ngx_cache_purge-2.3
配置: 使用正则匹配 ,/clear/(正则), 使用$1 取得正则匹配到的第一个参数,即为 clear后面的url
例如: /clear/user/config 则 $1 为/user/config
location ~ /clear(/.*) {
#允许访问的IP
allow 127.0.0.1;
#禁止访问的IP
deny all;
#配置清除指定缓存区和路径(与proxy_cache_key一至)
proxy_cache_purge cache_test $host$1$is_args$args;
}
使用:如果清除的缓存不存在 则404
# 访问清除路径
http://www.test.com/clear/user/config?a=1
# 清除的缓存key
www.test.com/user/config?a=1
4. nginx性能调优
worker_processes number;
每个worker进程都是单线程的进程,默认为一个,虽然异步非阻塞的模型可以充分使用这个线程.
但是如果有可能出现阻塞式调用,或者请求量过大,那么需要配置稍多一些的worker进程。
# 一般配置为 CPU核心数,充分使用cpu
worker_processes 4;
但是 每个线程选择CPU核 处理时 是不固定的 有可能使某一个CPU核心负载过大,如果是linux系统,可以固定每个线程的CPU
# 例如 CPU核心数为4的情况
worker_processes 4;
worker_cpu_affinity 1000 0100 0010 0001;
同样 我们也可以 配置 每个worker线程最大的连接数
#默认的配置为 1024 可以根据需要调大一些
events {
worker_connections 1024;
}
那么 一个nginx 最大的连接数就为
worker_connections*worker_processesworker_priority number;
Linux系统中,进程占用CPU执行任务的优先级由静态优先级和系统内核的调整共同决定,
静态优先级 为用户自定义 ,-20 ~ +19,-20为最高优先级,19位最低,默认为0,
内核会根据进程的实际执行情况 去调整优先级 一般为 ±5
worker_processes 4;
worker_cpu_affinity 1000 0100 0010 0001;
#调整优先级 为-5 ,一般不建议低于这个值
worker_priority -5;
worker_rlimit_nofile limit;
更改worker进程的最大打开文件数限制。如果没设置的话,这个值为操作系统的限制“ulimit -a”,“too many open files”这个错误就可以调大这个值
worker_processes 4;
worker_cpu_affinity 1000 0100 0010 0001;
worker_priority -5;
#worker线程最大打开文件数
worker_rlimit_nofile 65535;
accept_mutex[on|off]
跨进程锁
worker进程 的负载均衡锁,如果
accept_mutex启用,则当有新的连接时,只有获取到锁的worker线程 会被唤醒,并处理新的连接,并将锁依次向下传递(worker当前处理连接数大于worker_connections的7/8时,将不会再去争抢锁),如果关闭,则当有新的连接时 则会唤醒所有的worker ,最后只交给一个进程执行 (惊群问题),造成资源的浪费,所以为了解决这个问题,在1.11.3版之前,默认值为
on。之后因为linux epool的实现 本身解决了这个问题 默认为off.#配置在events中 所有进程共享
events{
accept_mutex on;
}
nginx应用及性能调优的更多相关文章
- Tomcat+Nginx+Lvs部署方案与性能调优
立项要求:用户登录并发数达到1000vuser.原项目设计没有Nginx和LVS,经过性能测试并发数最高到400,就报响应超时,且系统资源消耗严重.经过和架构师商议决定先加入Nginx解决负载均衡处理 ...
- nginx+keepalived+tomcat之tomcat性能调优
body{ font-family: Nyala; font-size: 10.5pt; line-height: 1.5;}html, body{ color: ; background-color ...
- Nginx性能调优
[调优]Nginx性能调优 一.Nginx优化配置 1.主配置文件优化:# vi /usr/local/nginx/conf/nginx.conf------------------------- ...
- Nginx 性能调优
原文地址:http://nginx.com/blog/tuning-nginx/ Tuning NGINX for Performance Nginx 性能调优 NGINX is well known ...
- web前端性能调优
最近2个月一直在做手机端和电视端开发,开发的过程遇到过各种坑.弄到快元旦了,终于把上线了.2个月干下来满满的的辛苦,没有那么忙了自己准备把前端的性能调优总结以下,以方便以后自己再次使用到的时候得于得心 ...
- [网站性能2]Asp.net平台下网站性能调优的实战方案
文章来源:http://www.cnblogs.com/dingjie08/archive/2009/11/10/1599929.html 前言 最近帮朋友运营的平台进行了性能调优,效果还不错, ...
- Asp.net平台下网站性能调优的实战方案(转)
转载地址:http://www.cnblogs.com/chenkai/archive/2009/11/07/1597795.html 前言 最近帮朋友运营的平台进行了性能调优,效果还不错,所以写出来 ...
- Java 应用性能调优实践
Java 应用性能优化是一个老生常谈的话题,笔者根据个人经验,将 Java 性能优化分为 4 个层级:应用层.数据库层.框架层.JVM 层.通过介绍 Java 性能诊断工具和思路,给出搜狗商业平台的性 ...
- Advacned Puppet: Puppet Master性能调优
本文是Advanced Puppet系列的第一篇:Puppet master性能调优,谈一谈如何优化和提高C/S架构下master端的性能. 故事情节往往惊人地类似:你是一名使用Puppet管理线上业 ...
- linux性能调优概述
- 什么是性能调优?(what) - 为什么需要性能调优?(why) - 什么时候需要性能调优?(when) - 什么地方需要性能调优?(where) - 什么人来进行性能调优?(who) - 怎么样 ...
随机推荐
- OpenIM集群(非k8s)部署文档
自行部署etcd/zookeeper/mysql/kafka/mongo/redis集群,可以根据此性能评估服务器需求. 以下是针对一台华为云主机s3的压测数据:8核16G内存,普通磁盘(非SSD)( ...
- 基于知识图谱的《红楼梦》人物关系可视化及问答系统(含码源):命名实体识别、关系识别、LTP简单教学
基于知识图谱的<红楼梦>人物关系可视化及问答系统(含码源):命名实体识别.关系识别.LTP简单教学 文件树: app.py是整个系统的主入口 templates文件夹是HTML的页面 |- ...
- C/C++ 反汇编:流程控制与循环结构
反汇编即把目标二进制机器码转为汇编代码的过程,该技术常用于软件破解.外挂技术.病毒分析.逆向工程.软件汉化等领域,学习和理解反汇编对软件调试.系统漏洞挖掘.内核原理及理解高级语言代码都有相当大的帮助, ...
- layui下拉框可手动输入
先看效果 layui版本:layui@2.8.17 HTML代码: <div class="layui-form-item"> <label class=&quo ...
- 编译型,解释型,java
编译型:将全部程序翻译为计算机能理解执行的代码 解释型:边运行程序边翻译,解释一点运行一点 java先编译再解释,将java文件编译为class文件,class文件再通过解释器翻译给操作系统运行
- 常用容器:动态数组array、列表list、队列 queue、map或字典、 集合、栈等等
一般语言都会提供一些逻辑容器的实现,各个语言的实现方式不同:底层的数学算法应该差不多: 动态数组 `` 这个没啥可说的,就是一个数组,满了时候,再创建一个数组,把之前的数组里的数据移过来,销毁之前数组 ...
- Python Rich:美化终端显示效果
Rich库的功能就像它的名字一样,使Python编程更加丰富(rich),它帮助开发者在控制台(命令行)输出中创建丰富.多彩和具有格式化的文本. 本篇总结了如何使用Rich库让我们的命令行工具更加美观 ...
- JS leetcode 实现strStr()函数 题解分析
壹 ❀ 引 前几天心情比较浮躁,烦心事太多,偷懒了3天,还是继续刷leetcode.那么今天做的题目为实现 strStr() 函数.,原题如下: 给定一个 haystack 字符串和一个 needle ...
- NC51189 Mondriaan's Dream
题目链接 题目 题目描述 Squares and rectangles fascinated the famous Dutch painter Piet Mondriaan. One night, a ...
- Buffer Queue原理
BufferQueue详解 原理一.BufferQueue 简介在工作中,我们经常会和Surface,ImageReader,ImageWriter BufferQueue打交道,它们之间是什么关系呢 ...