Nginx服务器的负载均衡

Nginx服务器反向代理服务的一个重要用途是实现负载均衡。随着信息数量的不断增长,目前网络的业务量的急剧升高,访问量和数据流量也在飞速增长,因而对网络本身的处理能力和计算强度的要求也越来越高。现有的网络硬件条件显然不能满足日益增长的需求,但是完全抛弃已有的硬件环境又是不现实的,于是,就出现了“网络负载均衡”(Load Balancing)这样的技术,该技术一出现就在网络建设中得到普及。

1 什么是负载均衡

负载均衡技术的大致原理是利用一定的分配策略将网络负载平衡地分摊到网络集群的各个操作单元上,使得单个重载任务能够分担到多个单元上并行处理,或者使得大量并发访问或数据流量分担到多个单元上分别处理,从而减少用于的等待响应时间。

在实际应用中,负载均衡会根据网络的不同层次(一般按照OSI的七层参考模型)进行划分。现在的负载均衡技术主要实现和作用于网络的第四层或第七层,完全独立于网络基础硬件设备,成为单独的技术设备。nginx服务器实现的负载均衡一般认为是七层负载均衡。
负载均衡主要通过专门的硬件设备实现或者通过软件算法实现。通过硬件设备实现的负载均衡效果好、效率高、性能稳定,但是成本比较高。通过软件实现的负载均衡主要依赖于负载均衡算法的选择和程序的健壮性。均衡算法也是多种多样的,常见的有两大类:即静态负载均衡算法和动态负载均衡算法。静态算法实现比较简单,在一般网络环境下也能达到比较好的效果,主要有一般轮询算法、基于比率的加权轮询算法以及基于有限级的加权鲁迅算法等。动态负载均衡算法在较为负载的网络环境中适应性更强,效果更好,主要有基于性能量的最少连接优先算法、基于性能的最快响应优先算法、预测算法及动态性能分配算法等。

2 Nginx服务器负载均衡配置

理解了“负载均衡”的概念,就可以利用Nginx服务器实现负载均衡的配置了。Nginx服务器实现了静态的基于优先级的加权轮询算法,主要使用的配置是proxy_pass指令和upstream指令,这些内容实际上实际上很容易理解,关键点在于Nginx服务器的配置灵活多样,如何在配置负载均衡的同时合理的融合其他功能,形成一套可以满足实际需求的配置方案。

2.1 配置示例一:对所有请求实现一轮询规则的负载均衡

在以下实例片段中,backend服务器中所有服务器的优先级全部配置为默认的weight=1,这样它们会按照一般轮询策略依次接收请求任务。该配置是一个最简单的实现Nginx服务器负载均衡的配置。所有访问www.myweb.name的请求都会在backend服务器中实现负载均衡。示例代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
 ...
upstream backend
{
server 192.168.1.2:80;
server 192.168.1.3:80;
server 192.168.1.4:80;
}
server
{
listen 80;
server_name www.myweb.name;
index index.html index.html
location / {
proxy_pass http://backend;
proxy_set_header Host $host;
...
}
...
}

2.2 配置实例二:对所有请求实现加权轮询规则的负载均衡

与“配置实例一”相比,在该实例片段中,backend服务器组中的服务器被赋予了不同的优先级别,weight变量的值就是轮询策略中的“权值”。其中,192.168.1.2:80的级别最高,优先接收和处理客户端请求。192.168.1.4:80的级别最低,是接收和处理客户端请求最少的服务器,192.168.1.3:80将介于以上两者之间。所有访问www.myweb.name的请求都会在backend服务器中实现加权负载均衡。实现代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
   ...
upstream backend
{
server 192.168.1.2:80 weight = 5;
server 192.168.1.3:80 weight = 2;
server 192.168.1.4:80;
}
server
{
listen 80;
server_name www.myweb.name;
index index.html index.htm;
location / {
proxy_pass http://backend;
proxy_set_header Host $host
...
}
...
}

2.3 配合实例三:对特定资源实现负载均衡

在该实例片段中,我们设置了两组被代理的服务器组,名为“videobackend”的一组用于对请求video资源的客户端请求进行资源负载,另一组用于对请求file资源的客户端请求进行负载均衡。通过对location块uri的不同配置,我们就很轻易的实现了对特定资源的负载均衡。所有对“http://www.myweb.name/video/”的请求都会在videobackend服务器组中获得均衡效果,所有对“http://www.myweb.name/file/”的请求都会在filebackend服务器组中获得均衡效果。在该实例中展示的是实现一般负载均衡的配置,对于加权负载均衡的配置可以参考“配置实例二”。
在location /file/ {……}块中,我们将客户端的真实信息分别填充到了请求头的“Host”、“X-Real-IP”和“X-Forwarded-For”头域,这样后端服务器组收到的请求中就保留了客户端的真实信息,而不是Nginx服务的信息。实例代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
... #其他配置
upstream videobackend #配置后端服务器组1
{
server 192.168.1.2:80;
server 192.168.1.3:80;
server 192.168.1.4:80;
}
upstream filebackend #配置后端服务器2
{
server 192.168.1.5:80;
server 192.168.1.6:80;
server 192.168.1.7:80;
}
server
{
linsten 80;
server_name www.myweb.name;
index index.html index.htm;
location /video/ {
{
proxy_pass http://viewbackend;
proxy_set_header Host $host;
...
}
location /file/ {
proxy_pass http://filebackend; #使用后端服务器组2
proxy_set_header Host $host; #保留客户端的真实信息
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
...
}
...
}

2.4 配置实例四:对不同域名实现负载均衡

在该片段中,我们设置了两个虚拟服务器和两组后端被代理的服务器组,分别来接收不同的域名请求的对这些请求进行负载均衡处理。如果客户端请求域名为“home.myweb.name”,则由服务器server 1接收并转向homebackend服务器组进行负载均衡处理。如果客户端请求域名为“bbs.myweb.name”,则由服务器server2接收并转向bbsbackend服务器组进行负载均衡处理。这样就实现了对不同域名的负载均衡。
需要注意两组后端服务器组中有一台服务器server 192.168.1.4:80是公用的。在该服务器上需要部署两个域名下的所有资源才能保证客户端请求不会出现问题。实例代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
 ...
upstream bbsbackend
{
server 192.168.1.2:80 weight = 2;
server 192.168.1.3:80 weight = 2;
server 192.168.1.4:80;
}
upstream homebackend
{
server 192.168.1.4:80;
server 192.168.1.5:80;
server 192.168.1.6:80;
}

server #开始配置server 1
{
listen 80;
server_name home.myweb.com;
index index.html index.htm;
location / {
proxy_pass http://homebackend;
proxy_set_header Host $host;
...
}
...
}
server #开始配置server 2
{
listen 81;
server_name bbs.myweb.name;
index index.html index.html;
location / {
proxy_pass http://bbsbackend;
proxy_set_header Host $host;
...
}
...
}

2.5 配置实例五:实现带有URL重写的负载均衡

首先,我们来看具体的源码,这是在实例一的基础上做的修改:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
  ...
upstream backend
{
server 192.168.1.2:80;
server 192.168.1.3:80;
server 192.168.1.4:80;
}
server
{
listen 80;
server_name www.myweb.name;
index index.html index.html;
location /file/ {
rewrite ^(/file/.*)/media/(.*)\.*$ $1/mp3/$2.mp3 last;
}
location / {
proxy_pass http://backend;
proxy_set_header Host $host;
...
}
...
}

该实例片段与“配置实例一”相比,增加对URI包含“/file/”的URL重写功能。例如客户端的请求URL为“http://www.myweb.name/file/download/media/1.mp3”时,该虚拟服务器首先使用location file/ {…..}块将该URL进行重写为http://www.myweb.name/file/download/mp3/1.mp3,然后新的URL再由location / {……}块转发到后端的backend服务组中实现负载均衡。这样,就轻而易举地实现了带有URL重写功能的负载均衡。在该配置方案中,一定要掌握清楚rewrite指令中last标记和break标记的区别,才能达到预计的效果。
以上5个配置实例展示了Nginx服务器实现不同情况下负载均衡配置的基本方法。由于Nginx服务器的功能在结构上是增量式的,因此,我们可以在这些配置的基础上继续添加更多功能。