文件描述符(file descriptors)

/etc/security/limits.conf 
这里是当前用户允许打开的文件描述符限制,可以用ulimit -n查看. 
修改成如下配置:

 
  1. * hard nofile 65536
  2. root hard nofile 65536
  3. * soft nofile 65536
  4. root soft nofile 65536

注意:root和*必须都要写,这里*代表root以外的其他账户(大坑无误) 
注销后重新login生效。

 

最大连接数(max connections)

/etc/sysctl.conf 
这里可以设置系统的文件描述符总限制(所有用户),以及其他tcp相关设置。 
其中最大连接数是net.core.somaxconn,这个参数在不同Linux内核中限制不一致,所以可以设置两次,使用不同的上限。

 
  1. fs.file-max=102400
  2. net.ipv4.tcp_slow_start_after_idle = 0
  3. net.core.somaxconn = 65535
  4. net.ipv4.tcp_keepalive_time=300
  5. net.ipv4.tcp_tw_reuse=1
  6. net.ipv4.tcp_tw_recycle=1
  7. net.ipv4.tcp_no_metrics_save=1
  8. net.core.somaxconn=262144
  9. net.ipv4.tcp_max_orphans=262144
  10. net.ipv4.tcp_synack_retries=2
  11. net.ipv4.tcp_syn_retries=2
  12. net.ipv4.tcp_syncookies=0
  13. net.ipv4.tcp_max_syn_backlog=262144
  14. net.core.wmem_max=16777216
  15. net.core.rmem_max=16777216
  16. net.ipv4.tcp_wmem=4096 4096 16777216
  17. net.ipv4.tcp_mem = 786432 2097152 3145728
  18. net.ipv4.tcp_rmem=4096 4096 16777216
  19. net.core.netdev_max_backlog=30000
  20. net.ipv4.ip_local_port_range=5000 65535
  21. net.ipv4.tcp_fin_timeout=30
  22. net.core.rmem_default = 262144
  23. net.core.wmem_default = 262144
  24. net.core.netdev_max_backlog=16384
  25. net.core.rmem_max=16777216
  26. net.core.wmem_max=16777216
  27. net.ipv4.tcp_syncookies=1

修改后使用sysctl -p生效。

注意,以上修改完成后,很多服务必须重启才能生效。

linux server 常见参数修改的更多相关文章

  1. Linux下TomcatVM参数修改:Native memory allocation (mmap) failed to map 3221225472 bytes for committing reserved memory.

    不可行的方法最初我直接修改catalina.sh, 将JAVA_OPTS变量加上了 -server -Xms1G -Xmx1G -XX:+UserG1GC最初看起来没啥问题,但是当服务器运行几天后,发 ...

  2. (转) Linux 内核运行参数修改——sysctl命令

    原文:https://blog.csdn.net/u012707739/article/details/78254241 sysctl命令被用于在内核运行时动态地修改内核的运行参数,可用的内核参数在目 ...

  3. CentOS Linux搭建独立SVN Server全套流程(修改svn仓库地址、服务启动等)

    CentOS Linux搭建独立SVN Server全套流程(修改svn仓库地址.服务启动等) 原 一事能狂便少年 发布于 2016/12/27 11:16 字数 1113 阅读 1.3K  收藏 0 ...

  4. 在Azure上实现Linux Server故障转移

    要充分利用公有云的弹性扩展和高可用, 首先要在应用系统层面支持横向扩展(scale out),这个说起来很容易,或者说对新开发的应用系统而言已经成为标配.但是对已有的.老旧的应用系统来说,这就比较困难 ...

  5. (转)Linux curl命令参数详解

    Linux curl命令参数详解 命令:curl在Linux中curl是一个利用URL规则在命令行下工作的文件传输工具,可以说是一款很强大的http命令行工具.它支持文件的上传和下载,是综合传输工具, ...

  6. Linux MySQL 常见无法启动或启动异常的解决方案

    Linux MySQL 常见无法启动或启动异常的解决方案 在 Linux 上自建 MySQL 服务器,经常遇到各种无法启动或启动后异常的问题,本文列举一些常见问题的解决办法. 注意:以下错误日志提示, ...

  7. linux mount命令参数及用法详解

    linux mount命令参数及用法详解 非原创,主要来自 http://www.360doc.com/content/13/0608/14/12600778_291501907.shtml. htt ...

  8. 【转】Linux 技巧: Bash 参数和参数扩展

    重点看下清单7 现在,很多 Linux® 和 UNIX® 系统上都有 bash shell,它是 Linux 上常见的默认 shell.通过本文,您将了解到如何在 bash 脚本中处理参数和选项,以及 ...

  9. linux性能优化参数小节

    总结一些和性能相关的常见参数 内核相关参数 位于/etc/sysctl.conf文件,向文件中添加 用sysctl -a可以查看默认配置 修改后可以通过sysctl -p执行并看看有没有错误 例如设置 ...

随机推荐

  1. Thinkphp5+PHPExcel实现批量上传表格数据功能

    http://www.jb51.net/article/129262.htm 1.首先要下载PHPExcel放到vendor文件夹下,我的路径是:项目/vendor/PHPExcel/,把下载的PHP ...

  2. DEDE在图集列表中调出图集的所有图片[首页也适用]

    在include/common.func.php 中添加以下函数代码 代码如下:   // 在图集列表中调出图集的所有图片 function Getimgs($aid, $imgwith = 220, ...

  3. 【jsp】MyEclipse10.7.1最新版+破解下载

    MyEclipse企业级工作平台[1](MyEclipse Enterprise Workbench ,简称MyEclipse)是对EclipseIDE的扩展,利用它我们可以在数据库和JavaEE的开 ...

  4. xml报错 Parse Fatal Error :在实体引用中,实体名称必须紧跟在'&'后面

    修改jndi配置文件中的密码后,重启tomcat报错如下  实际问题是xml中默认’&’是非法字符,用     &   替代

  5. call 和 ret 指令

    body, table{font-family: 微软雅黑; font-size: 13.5pt} table{border-collapse: collapse; border: solid gra ...

  6. wstring操作与普通段字符操作对照表

    字符分类:   宽字符函数普通C函数描述   iswalnum()   isalnum()   测试字符是否为数字或字母   iswalpha()   isalpha()   测试字符是否是字母    ...

  7. CSS样式中常用的字体名称

    css中引入字体: @font-face { font-family: "AncientWar"; src: url('style/css/fonts/AncientWar.ttf ...

  8. linux下^M问题

    ^M的原因 Dos.Windows 格式的文件,用 0D 0A (CR+LF)作为换行符 而Unix 的则是以0A(LF) 作为换行符 所以dos 底下的文本文件到了unix的话,换行符就会多出来一个 ...

  9. python简单分布式demo

    A服务器是master,B服务器为worker, A服务器上执行taskManger.py # coding:utf-8 import random,time,Queue from multiproc ...

  10. Eclipse 配置运行Spark

    本文主要记录Spark 在 Eclipse中报 找不到主类的问题.在新建Spark工程,然后add external jars 选择 spark-assembly-1.4.0-hadoop2.6.0. ...