配置正确性测试
灾难恢复测试
测试点
基本功能测试
客户端IP地址正确性
RealServer 访问Internet测试(包括Iptables 规则优先级)
流量压力测试
流量峰值测试
流量达到一定值后的CPU,网卡IO,软中断情况等
连接数峰值测试
连接数达到一定值后,内存,CPU的情况等
响应时间测试
在增加LVS前后相应时间对比
配置正确性测试
RR算法的预期值(基本功能)
多配置情况下的性能
添加上万条规则后,转发性能是否有影响
灾难恢复测试
配置导出导入测试
测试环境 实测结果 1. 基本功能测试 客户端地址正确性 访问流程 Web Browser.Zhuhai 113.106.x.x -> LVS(58.215.138.160) -> RS(10.20.165.174) RS Nginx 日志如下 113.106.x.x - - [12/Feb/2015:00:18:48 +0800] "GET / HTTP/1.1" 200 612 "结论:
验证NAT模式下客户端地址正确性为能够获取真实IP.
RS 网络配置如下, gateway 为LVS的内网IP
auto eth0 iface eth0 inet static address 10.20.165.173 gateway 10.20.165.121 netmask 255.255.255.0在 LVS 下添加如下 iptables 规则
/sbin/iptables -t nat -I POSTROUTING -o eth0 -j MASQUERADE实测:
zhangbo3@rise-vm-173:~$ ping 8.8.8.8 PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data. 64 bytes from 8.8.8.8: icmp_req=1 ttl=44 time=62.0 ms 64 bytes from 8.8.8.8: icmp_req=2 ttl=44 time=62.2 ms 2. 流量压力测试 高流量测试针对一台LVS 做高流量测试,测试过程中,并发200,20000个请求。
只针对网卡流量来看,内存,磁盘,CPU User time 不统计
每个请求返回7MB大小的包。
压测峰值800Mb
此时的软中断
实测软中断峰值只到0.7%
此时的IN包数
此时的OUT包数
包数IN + OUT 峰值为 100K
高并发小包测试针对一台LVS 做高并发小包测试,测试过程中,并发80000,4KW个请求。
每个请求返回2K大小的包。
峰值IN 流量 772Mbps 平均大概750Mbps
峰值OUT 流量 773Mbps 平均大概750Mbps
峰值IN 包数 149KPS 平均大概140KPS
峰值OUT 包数 103KPS 平均大概 90KPS
测试过程中软中断 峰值 8.2% 平均大概 7%
测试结果:
分别测试了LVS 在大包高流量情况下和小包高并发情况下的表现。
高流量情况下,可以完全的利用网卡性能,且无丢包和出错情况,千M网卡流量到800Mb,软中断平均在 0.7%。
高并发小包情况下,带宽为750Mbps,包流量为250KPs的情况下(已经接近网卡极限),软中断平均在 7%.
两种情况的测试结果表明,无论是高流量还是高并发,LVS 都能够在网卡的额定值内发挥正常。
以上测试均为对多队列网卡做软中断绑定的表现.
10000个并发,10W请求下
LVS 后端增加一台RealServer情况下
Concurrency Level: 10000 Time taken for tests: 13.198 seconds Time per request: 0.132 [ms]在未添加LVS 情况下,单独测试Realserver 数据
Concurrency Level: 10000 Time taken for tests: 14.474 seconds Time per request: 0.145 [ms]总结:
在增加了LVS前后,响应时间几乎没有影响.