> CentOS > CentOS安全 >

CentOS5.x内核优化详细解析 (sysctl.conf)

主要是针对/etc/sysctl.conf里的各项进行详细解析,所有内容经网络搜集并整理,方便大家学习了解。

系统优化项:

kernel.sysrq = 0

#使用sysrq组合键是了解系统目前运行情况,为安全起见设为0关闭 

 kernel.core_uses_pid = 1

#控制core文件的文件名是否添加pid作为扩展 

 

kernel.msgmnb = 65536

#每个消息队列的大小限制,以字节为单位

 

kernel.msgmni = 16 

#整个系统最大消息队列数量限制,此值可以根据需要增大.

 

kernel.msgmax = 65536

#每个消息的最大size

 

kernel.shmmax = 68719476736

#可用共享内存段的大小(单位:字节)限制

 

kernel.shmall = 4294967296

#所有内存大小(单位:页,1页 = 4Kb) 

kernel.shmmni = 4096

#控制共享内存段总数,目前的参数值是4096 
 

 

kernel.sem = 250 32000 100 128

或kernel.sem =5010 641280 5010 128

#SEMMSL(每个用户拥有信号量最大数量),SEMMNS(系统信号量最大数量),SEMOPM(每次semop系统调用操作数),SEMMNI(系统信号量集最大数量)

 

fs.aio-max-nr = 65536或取(1048576)(3145728)值

# 在系统级支持异步I/O,当系统进行大量的连续IO会使用较大的值

fs.aio-max-size = 131072  

#异步IO的最大大小

fs.file-max = 65536        

#表示文件句柄的最大数量

 

net.core.wmem_default = 8388608

#为TCP socket预留用于发送缓冲的内存默认值(单位:字节)

 

net.core.wmem_max = 16777216

#为TCP socket预留用于发送缓冲的内存最大值(单位:字节)

 

net.core.rmem_default = 8388608

#为TCP socket预留用于接收缓冲的内存默认值(单位:字节) 

 

net.core.rmem_max = 16777216

#为TCP socket预留用于接收缓冲的内存最大值(单位:字节)
 

net.core.somaxconn = 262144

#listen(函数)的默认参数,挂起请求的最大数量限制 

 

 

网络优化项:

net.ipv4.ip_forward = 0

#禁用包过滤、转发功能 

 

net.ipv4.tcp_syncookies = 1

#开启SYN COOKIES功能

 

net.ipv4.conf.default.rp_filter = 1

#启用源路由核查功能 

 

net.ipv4.conf.default.accept_source_route = 0

#禁用所有IP源路由 

 

net.ipv4.route.gc_timeout = 100

#路由缓存刷新频率, 当一个路由失败后多长时间跳到另一个默认是300

 

net.ipv4.ip_local_port_range = 1024 65000

#对外连接端口范围,缺省情况下很小:32768到61000,改为1024到65000。

 

net.ipv4.tcp_max_tw_buckets = 6000

#表示系统同时保持TIME_WAIT套接字的最大数量,如果超过这个数字,TIME_WAIT套接字将立刻被清除并打印警告信息,默认为180000

 

net.ipv4.tcp_sack = 1

#在高延迟的连接中,SACK 对于有效利用所有可用带宽尤其重要。高延迟会导致在任何给定时刻都有大量正在传送的包在等待应答。在 Linux 中,除非得到应答或不再需要,这些包将一直存放在重传队列中。这些包按照序列编号排队,但不存在任何形式的索引。当需要处理一个收到的 SACK 选项时,TCP 协议栈必须在重传队列中找到应用了 SACK 的包。重传队列越长,找到所需的数据就越困难。一般可关闭这个功能。选择性应答在高带宽延迟的网络连接上对性能的影响很大,但也可将其禁用,这不会牺牲互操作性。将其值设置为 0 即可禁用 TCP 协议栈中的 SACK 功能。

 

net.core.netdev_max_backlog = 262144

#每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目 

 

net.ipv4.tcp_window_scaling = 1

#TCP窗口扩大因子支持. 如果TCP窗口最大超过65535(64K), 设置该数值为1 。Tcp窗口扩大因子是一个新选项,一些新的实现才会包含该选项,为了是新旧协议兼容,做了如下约定:1、只有主动连接方的第一个syn可以发送窗口扩大因子;2、被动连接方接收到带有窗口扩大因子的选项后,如果支持,则可以发送自己的窗口扩大因子,否则忽略该选项;3、如果双方支持该选项,那么后续的数据传输则使用该窗口扩大因子。如果对方不支持wscale,那么它不应该响应 wscale 0,而且在收到46的窗口时不应该发送1460的数据;如果对方支持wscale,那么它应该大量发送数据来增加吞吐量,不至于通过关闭wscale来解决问题,如果是使用普遍的协议实现,那么就需要关闭wscale来提高性能并以防万一。

 

net.ipv4.tcp_rmem = 4096 87380 4194304

#TCP读buffer 

net.ipv4.tcp_wmem = 4096 16384 4194304

#TCP写buffer

 

net.ipv4.tcp_max_orphans = 3276800

#系统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上。如果超过这个数字,孤儿连接将即刻被复位并打印出警告信息。这个限制仅仅是为了防止简单的DoS攻击,不能过分依靠它或者人为地减小这个值,更应该增加这个值(如果增加了内存之后)。

 

net.ipv4.tcp_max_syn_backlog = 262144

#表示SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数

 

net.ipv4.tcp_timestamps = 0

#时间戳可以避免序列号的卷绕。一个1Gbps 的链路肯定会遇到以前用过的序列号。时间戳能够让内核接受这种“异常”的数据包。这里需要将其关掉。

 

net.ipv4.tcp_synack_retries = 1

#为了打开对端的连接,内核需要发送一个SYN 并附带一个回应前面一个SYN 的ACK。也就是所谓三次握手中的第二次握手。这个设置决定了内核放弃连接之前发送SYN+ACK 包的数量。

 

net.ipv4.tcp_syn_retries = 1

#对于一个新建连接,内核要发送多少个 SYN 连接请求才决定放弃。不应该大于255,默认值是5

 

net.ipv4.tcp_tw_recycle = 1

#启用timewait快速回收

 

net.ipv4.tcp_tw_reuse = 1

#开启重用。允许将TIME-WAIT sockets重新用于新的TCP连接。

 

net.ipv4.tcp_mem = 94500000 915000000 927000000

#1st低于此值,TCP没有内存压力,2nd进入内存压力阶段,3rdTCP拒绝分配socket(单位:内存页)

 

net.ipv4.tcp_fin_timeout = 1

#表示如果套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间为15秒

 

net.ipv4.tcp_keepalive_time = 60

#表示当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时,改为1分钟。

 

net.ipv4.tcp_keepalive_probes= 1

net.ipv4.tcp_keepalive_intvl= 2

#意思是如果某个TCP连接在idle 2分钟后,内核才发起probe.如果probe 1次(每次2秒)不成功,内核才彻底放弃,认为该连接已失效. 

 

最后使配置立即生效,可使用如下命令:

#/sbin/sysctl -p

   我们在性能优化时,首先要设定性能优化需要达到的目标,然后寻找瓶颈,调整参数,达到优化目的。寻找性能瓶颈是比较辛苦的,要从大范围,通过很多用例和测试,不断的缩小范围,最终确定瓶颈点, 有很多的参数要边测试边调整,这就需要我们更多的耐心和坚持。 

(责任编辑:IT)