高性能缓存服务器Varnish深入浅出部署

一)什么是反向代理?

反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个反向代理服务器。

二)在网络上常见的代理服务器有三种:

1、标准的代理缓冲服务器

一个标准的代理缓冲服务被用于缓存静态的网页(例如:html文件和图片文件等)到本地网络上的一台主机上---即代理服务器(传统代理)

优点:当被缓存的页面被第二次访问的时候,浏览器将直接从本地代理服务器那里请求数据而不再向原web站点请求数据。这样就节省了宝贵的网络带宽,而且提高了访问速度。

缺点:要想实现这种方式,必须在每一个内部主机的浏览器上明确指明代理服务器的IP地址和端口号。

2、透明代理缓冲服务器

透明代理缓冲服务和标准代理服务器的功能完全相同。但是,代理操作对客户端的浏览器是透明的(即不需指明代理服务器的IP和端口)。透明代理服务器阻断网络通信,并且过滤出访问外部的HTTP(80端口)流量。如果客户端的请求在本地有缓冲则将缓冲的数据直接发给用户,如果在本地没有缓冲则向远程web服务器发出请求,其余操作和标准的代理服务器完全相同。对于Linux操作系统来说,透明代理使用Iptables缓存及加速-03单-高性能缓存服务器Varnish.txt[2016/8/19 15:28:24]或者Ipchains实现。因为不需要对浏览器作任何设置,所以,透明代理对于ISP(Internet服务器提供商)特别有用。

3、反向代理缓冲服务器

反向代理是和前两种代理完全不同的一种代理服务。使用它可以降低原始WEB服务器的负载。反向代理服务器承担了对原始WEB服务器的静态页面的请求,防止原始服务器过载。它位于本地WEB服务器和Internet之间,处理所有对WEB服务器的请求,阻止了WEB服务器和Internet的直接通信。如果互联网用户请求的页面在代理服务器上有缓冲的话,代理服务器直接将缓冲内容发送给用户。如果没有缓冲则先向WEB服务器发出请求,取回数据,本地缓存后再发送给用户。这种方式通过降低了向WEB服务器的请求数从而降低了WEB服务器的负载。

一、构建Varnish反向代理

---------Client---------Varnish---------WEB---------

eth0:1.1.1.254    eth0:1.1.1.1    eth1:192.168.1.100

eth1:192.168.1.1 


依旧采用CentOS6系列最小化安装系统。

二)搭建步骤:

1、关闭防火墙

2、关闭selinux

3、安装相关插件 

[root@localhost ~]# yum -y install libtool ncurses-devel pcre-devel libxslt

pkgconfig groff  这几个包本地yum源有

[root@localhost ~]# rpm -ivh libedit-2.11-4.20080712cvs.1.el6.x86_64.rpm

[root@localhost ~]# rpm -ivh Python-imaging-1.1.6-19.el6.x86_64.rpm

[root@localhost ~]# rpm -ivh python-docutils-0.6-1.el6.noarch.rpm

上述三个包前两个本地YUM源有,python-docutils需要安装第三方yum源或者百度搜索这个包吧

[root@localhost ~]# tar -zxvf varnish-4.1.3.tar.gz -C /usr/src/

varnish官网:

[root@localhost ~]# cd /usr/src/varnish-4.1.3/

[root@localhost varnish-4.1.3]# ./configure --prefix=/usr/local/varnish --enable-debuggingsymbols

[root@localhost varnish-4.1.3]# make && make install

[root@localhost varnish-4.1.3]# ls /usr/local/varnish/

[root@localhost ~]# ln -s /usr/local/varnish/sbin/* /usr/sbin/

[root@localhost ~]# ln -s /usr/local/varnish/bin/* /usr/local/bin/

[root@localhost ~]# cp /usr/local/varnish/share/doc/varnish/example.vcl

/usr/local/varnish/default.vcl

[root@localhost ~]# vim /usr/local/varnish/default.vcl

修改:

backend default {

.host = "192.168.1.100";

.port = "80";

}

[root@localhost ~]# varnishd -f /usr/local/varnish/default.vcl -a 0.0.0.0:80

[root@localhost ~]# netstat -anpt | grep varnish

注意:

停止varnish用下面的命令:

[root@localhost ~]# killall -9 varnishd

4、在WEB服务器

[root@localhost ~]# service httpd restart

[root@localhost ~]# echo "welcome to WEB server" > /var/www/html/index.html

5、综合验证:

1、在varnish代理服务器上

[root@localhost ~]# varnishlog

2、在WEB服务器上:

缓存及加速-03单-高性能缓存服务器Varnish.txt[2016/8/19 15:28:24]

[root@localhost ~]# tail -f /etc/httpd/logs/access_log

二、部署Varnish负载均衡高可用群集

在上面的基础之上来完成下Varnish负载均衡高可用群集的部署

------Client---------Varnish-------------WEB1--------WEB2----------

1.1.1.254    eth0:1.1.1.1

eth1:192.168.1.1 192.168.1.100 192.168.1.200

一)部署负载均衡

[root@localhost ~]# vim /usr/local/varnish/default.vcl

修改:

backend web1 {

.host = "192.168.1.100";

.port = "80";

}

backend web2 {

.host = "192.168.1.200";

.port = "80";

}

import directors; //加载directors模块

缓存及加速-03单-高性能缓存服务器Varnish.txt[2016/8/19 15:28:24]

sub vcl_init {

new bar = directors.round_robin();

bar.add_backend(web1);

bar.add_backend(web2);

}

sub vcl_recv {

set req.backend_hint = bar.backend();

}

[root@localhost ~]# varnishd -C -f /usr/local/varnish/default.vcl //检查语法

[root@localhost ~]# varnishd -f /usr/local/varnish/default.vcl //启动

[root@localhost ~]# netstat -anpt | grep varnishd

验证:

客户端访问,varnish服务器会根据算法分配流量。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/51b0f41094633f72ee68bb741d27b539.html