Nginx+Tomcat实现负载均衡

一、环境准备

  • Tomcat1:192.168.31.103
  • Tomcat2:192.168.31.117
  • Nginx:192.168.31.154

在103和117上分别部署相同的Tomcat程序,修改index.jsp页面,把内容改为各自的IP地址。

二、修改配置文件nginx.conf

在http节点中增加:

1
2
3
4
5
6
7
8
9
10
11
12
## user-api
upstream user-api {
server 192.168.31.103:8080 weight=3;
server 192.168.31.117:8080 weight=3;
}
server {
listen 80;
server_name 192.168.31.154;
location / {
proxy_pass http://user-api/;
}
}

  • upstream为Nginx的负载均衡模块,里面定义了负载应用的列表。
  • server{}为虚拟主机配置

  • server_name为虚拟主机的IP或者域名,多个域名之间用空格隔开

  • listen为监听的端口
  • location / 表示监听80端口下面的所有请求
  • proxy_pass配置为:http + upstream名称

以上配置完成后,执行./nginx -t命令检测配置是否有错,再执行./ngin -s reload命令进行更新。

三、配置说明:

upstream按照轮询(默认)方式进行负载,每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。虽然这种方式简便、成本低廉。

但缺点是:可靠性低和负载分配不均衡。适用于图片服务器集群和纯静态页面服务器集群。

除此之外,upstream还有其它的分配策略,分别如下:

  • weight(权重)
    指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。如下所示,10.0.0.88的访问比率要比10.0.0.77的访问比率高一倍。

    1
    2
    3
    4
    upstream linuxidc{ 
    server 10.0.0.77 weight=5;
    server 10.0.0.88 weight=10;
    }
  • ip_hash(访问ip)
    每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。

    1
    2
    3
    4
    5
    upstream favresin{ 
    ip_hash;
    server 10.0.0.10:8080;
    server 10.0.0.11:8080;
    }
  • fair(第三方)
    按后端服务器的响应时间来分配请求,响应时间短的优先分配。与weight分配策略类似。

    1
    2
    3
    4
    5
    upstream favresin{      
    server 10.0.0.10:8080;
    server 10.0.0.11:8080;
    fair;
    }
  • url_hash(第三方)
    按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
    注意:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法。

    1
    2
    3
    4
    5
    6
    upstream resinserver{ 
    server 10.0.0.10:7777;
    server 10.0.0.11:8888;
    hash $request_uri;
    hash_method crc32;
    }

upstream还可以为每个设备设置状态值,这些状态值的含义分别如下:

  • down 表示单前的server暂时不参与负载.

  • weight 默认为1.weight越大,负载的权重就越大。

  • max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误.
  • fail_timeout : max_fails次失败后,暂停的时间。
  • backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
    1
    2
    3
    4
    5
    6
    7
    upstream bakend{ #定义负载均衡设备的Ip及设备状态 
    ip_hash;
    server 10.0.0.11:9090 down;
    server 10.0.0.11:8080 weight=2;
    server 10.0.0.11:6060;
    server 10.0.0.11:7070 backup;
    }

四、测试

访问http://192.168.31.154/dreyer-user-api/index.jsp

Paste_Image.png

Paste_Image.png

不断的刷新页面,我们会发现应用会在117和103之间随机切换,这表明通过Nginx来实现Tomcat应用的负载均衡目的达到。

五、附录实例

nginx.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
#user  www www;
user root;
worker_processes 4;
error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
pid logs/nginx.pid;
events {
use epoll;
worker_connections 40960;
}
# load modules compiled as Dynamic Shared Object (DSO)
#
#dso {
# load ngx_http_fastcgi_module.so;
# load ngx_http_rewrite_module.so;
#}
http {
include mime.types;
default_type application/octet-stream;
#log_format main '$remote_addr - $remote_user [$time_local] "$request" '
# '$status $body_bytes_sent "$http_referer" '
# '"$http_user_agent" "$http_x_forwarded_for"';
#access_log logs/access.log main;
sendfile on;
#tcp_nopush on;
tcp_nodelay on;
types_hash_max_size 2048;
server_names_hash_max_size 512;
server_names_hash_bucket_size 128;
#keepalive_timeout 0;
keepalive_timeout 280;
gzip on;
gzip_comp_level 3;
gzip_types text/plain text/css text/javascript application/x-javascript application/javascript application/xml application/json;
client_header_buffer_size 128k;
large_client_header_buffers 4 256k;

proxy_headers_hash_max_size 51200;
proxy_headers_hash_bucket_size 6400;

## 配置包含的文件信息
include /opt/nginx/conf/tools/*.conf;
include /opt/nginx/sites-enabled/*.conf;
}

在包含的文件信息中摘取几段

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
## dev-pay-api(单节点)
server {
listen 80;
server_name xxxx.cn;
location / {
proxy_pass http://172.16.xx.xx:8089/;
add_header 'Access-Control-Allow-Origin' '*';
add_header 'Access-Control-Allow-Credentials' 'true';
add_header 'Access-Control-Allow-Methods' 'POST, GET, OPTIONS,PUT,DELETE';
add_header 'Access-Control-Allow-Headers' '*,token';
proxy_set_header Host $http_host;
proxy_set_header Cookie $http_cookie;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
client_max_body_size 100m;
}
}

## qa-web-pay-api(双机负载均衡)
upstream qa_web_pay_api {
server 172.16.xx.xx:8089 weight=3;
server 172.16.xx.xx:8089 weight=3;
}
server {
listen 80;
server_name xxxx.com;
location / {
proxy_pass http://qa_web_pay_api/;
add_header 'Access-Control-Allow-Origin' '*';
add_header 'Access-Control-Allow-Credentials' 'true';
add_header 'Access-Control-Allow-Methods' 'POST, GET, OPTIONS,PUT,DELETE';
add_header 'Access-Control-Allow-Headers' '*,token';
proxy_set_header Host $http_host;
proxy_set_header Cookie $http_cookie;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
client_max_body_size 100m;
}
}

## test-web-b(前端代码,前后端分离的模式)
server {
listen 80;
server_name xxxx.com;
rewrite ^(.*)$ https://$host$1 permanent;
location / {
root /usr/local/www/test-web-b;
try_files $uri $uri/ /index.html =404;
}
}

如果您觉得有帮助到您,不妨考虑请作者喝杯咖啡鼓励一下。