Sysctl是一个允许您改变正在运行中的Linux系统的接口。它包含一些 TCP/IP 堆栈和虚拟内存系统的高级选项, 这可以让有经验的管理员提高引人注目的系统性能。用sysctl可以读取设置超过五百个系统变量。基于这点,sysctl(8) 提供两个功能:读取和修改系统设置。
调优的内核变量存在两种主要接口:sysctl命令和/proc文件系统;二者是相对应的关系;
proc中与进程无关的所有信息都被移植到sysfs中。
IPV4协议栈的 sysctl参数主要是sysctl.net.core、sysctl.net.ipv4,对应的/proc文件系统是/proc/sys/net /ipv4和/proc/sys/net/core。只有内核在编译时包含了特定的属性,该参数才会出现在内核中。
对于内核参数应该谨慎调节,这些参数通常会影响到系统的整体性能。内核在启动时会根据系统的资源情况来初始化特定的变量,这种初始化的调节一般会满足通常的性能需求。
应用程序通过socket系统调用和远程主机进行通讯,每一个socket都有一个读写缓冲区。读缓冲区保存了远程主机发送过来的数据,如果缓冲区已满, 则数据会被丢弃,写缓冲期保存了要发送到远程主机的数据,如果写缓冲区已慢,则系统的应用程序在写入数据时会阻塞。可知,缓冲区是有大小的。
socket缓冲区默认大小:
/proc/sys/net/core/rmem_default 对应net.core.rmem_default
/proc/sys/net/core/wmem_default 对应net.core.wmem_default
上面是各种类型socket的默认读写缓冲区大小,然而对于特定类型的socket则可以设置独立的值覆盖默认值大小。例如tcp类型的socket就可以用/proc/sys/net/ipv4/tcp_rmem和tcp_wmem来覆盖。
socket缓冲区最大值:
/proc/sys/net/core/rmem_max 对应net.core.rmem_max
/proc/sys/net/core/wmem_max 对应net.core.wmem_max
/proc/sys/net/core/netdev_max_backlog 对应 net.core.netdev_max_backlog
该参数定义了当接口收到包的速率大于内核处理包的速率时,设备的输入队列中的最大报文数。
/proc/sys/net/core/somaxconn 对应 net.core.somaxconn
通过listen系统调用可以指定的最大accept队列backlog,当排队的请求连接大于该值时,后续进来的请求连接会被丢弃。
/proc/sys/net/core/optmem_max 对应 net.core.optmem_max
每个socket的副缓冲区大小。
TCP/IPV4内核参数:
在创建socket的时候会指定socke协议和地址类型。TCP socket缓冲区大小是他自己控制而不是由core内核缓冲区控制。
/proc/sys/net/ipv4/tcp_rmem 对应net.ipv4.tcp_rmem
/proc/sys/net/ipv4/tcp_wmem 对应net.ipv4.tcp_wmem
以上是TCP socket的读写缓冲区的设置,每一项里面都有三个值,第一个值是缓冲区最小值,中间值是缓冲区的默认值,最后一个是缓冲区的最大值,虽然缓冲区的值不受core缓冲区的值的限制,但是缓冲区的最大值仍旧受限于core的最大值。
/proc/sys/net/ipv4/tcp_mem
该内核参数也是包括三个值,用来定义内存管理的范围,第一个值的意思是当page数低于该值时,TCP并不认为他为内存压力,第二个值是进入内存的压力区 域时所达到的页数,第三个值是所有TCP sockets所允许使用的最大page数,超过该值后,会丢弃后续报文。page是以页面为单位的,为系统中socket全局分配的内存容量。
/proc/sys/net/ipv4/tcp_window_scaling 对应net.ipv4.tcp_window_scaling
管理TCP的窗口缩放特性,因为在tcp头部中声明接收缓冲区的长度为26位,因此窗口不能大于64K,如果大于64K,就要打开窗口缩放。
/proc/sys/net/ipv4/tcp_sack 对应net.ipv4.tcp_sack