您尚未登录,请登录后浏览更多内容! 登录 | 立即注册

QQ登录

只需一步,快速开始

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 11655|回复: 0
打印 上一主题 下一主题

[centos] 浅谈Nginx之反向代理与负载均衡

[复制链接]
跳转到指定楼层
楼主
发表于 2020-2-25 23:05:39 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式

Nginx的负载均衡是基于反向代理实现的,因此,本文先讨论什么是反向代理,再在这个的基础上讨论负载均衡以及负载均衡时应该注意哪些策略。

反向代理:

如下图所示,


" R6 d& M" T7 x* }" {

  ↓-----Nginx将结果返回给浏览器---丨                                                          对Tomcat来说,只知道服务对象是Nginx服务器

浏览器  -发起对该域的访问请求->   Nginx  --------------Nginx将请求来转发给Tomcat服务器---->  Tomcat...

                                                          丨-对Tomcat来说,只对nginx负责,将结果返回给Nginx服务器---↑


# I/ _8 Z7 o6 [- y, Q$ b从图中,我们可以知道,对于浏览器来说,他会发一个http://www.a.com/uri请求到Nginx服务器,对于他来说,他认为数据就是从http://www.a.com/uri域中返回的,事实上,当http://www.a.com/uri到达Nginx服务器后,Nginx服务器会将其转发给http://www.b.com/uri,从http://www.b.com/uri域中取得数据并将其返回给浏览器,这个步骤浏览器是不知道的,也就是说,浏览器并不知道http://www.b.com/uri该域的存在,同理,http://www.b.com/uri所在的域(图中的Tomcat)也并不知道浏览器的存在,他也只对Nginx负责。Nginx的这么一个过程便称为反向代理。
, B9 p: ^7 \7 U0 n, _
" }* B0 M; X% t3 F' S# C那么,Nginx服务器是如何实现这一步的呢,事实上也很简单,只需要在location中做一下简单的配置即可,命令大概如下图所示:(配置完命令记得reload重新加载才能生效)
5 a  a% a+ E8 H+ I: q
3 J4 K+ h0 M' ~  X7 g" y5 ~% z: k* h
  1. worker_processes 1;, I- ~  z$ k+ O
  2. events{
复制代码
+ A1 w' v; L7 i2 \, u, i
' j5 \% K% y) t1 Q5 }* ~
重点在于location处,这样的配置代表的是,所有来自浏览器的请求,在Nginx收到之后,都会代理到http://192.168.1.62:8080所在的地方. I* E, e2 i  L& D; I% f+ @
1 o' B4 u6 J5 h8 m' [& [
比如,我浏览器上发起http://192.168.1.61/a/index.html;Nginx收到之后,将会发出http:// 192.168.1.62:8080/a/index.html这么一个请求到所连接的服务器上,如上图的Tomcat。
5 U8 T. |- `# e. n0 b7 q
) S% D2 l4 j. M2 D8 L: B7 |! J: k
7 C- i$ |) _. j: N/ z9 r接下来我们做这样一个假设,假如后端连接着几台。几十台服务器呢,这个时候Nginx也是做同样的代理吗,答案是肯定的。图示如下:那么,在这么多台服务器上,Nginx的转发又是基于怎样的策略呢?这个时候就涉及在负载均衡了,说白了就是,应该怎样的分发,才能做到资源的最大限度的利用?
6 v; }- Q6 A2 K; @, ^* p* _( Y3 p0 d3 {: g4 ^* C, W

0 n; M. F& z) P' c3 {' _1 P
( Q( ^- Q7 C% f/ ~
" l5 l) g2 d4 R' `# U% [0 A负载均衡策略

我们这里假设三台服务器的IP地址分别为

http:// 192.168.1.62:8080

http:// 192.168.1.63:8080

http:// 192.168.1.64:8080

1.   平均轮询

配置如下图:

- `" T, W2 C7 ]: `' Z. ?* A& E, s: o

* N9 D. L: d; @' K( u0 m/ u3 w+ d
& |- N# r) N% I* v

这里我们把后台所有的服务器放入upstream中,并在代理中进行引用。8 e4 Y' X0 H: Z

2.   加权轮询,使用weight参数设置,配置如下
" c# `% J* X7 q3 S
, `4 O* O5 f- ?( d# g, ?3.   ip_hash策略6 T4 T4 X, I: a3 k9 R: o
(根据用户的IP地址进行hash运算,只要是同个用户发的请求,就会被永远地转发在某台服务器上,比如张三发的请求第一次时是由Tomcat1返回的,李四的是有Tomcat2返回的,那么,以后张三的所有请求,都有由Tomcat1返回,这就是ip_hash策略),配置如下:
& u# l; S0 ~  I: i% f 其他地方保持不变,在upstreaem中如下设置:2 G. J9 o4 ~7 y5 g

) y5 A" v8 m. ]$ J4 t2 p* N7 F% ~9 D; \

" T/ C- m" V4 r9 k% m# \
/ N2 H+ p0 [, R( c2 R$ ]5 R- Z4.   fair策略$ R8 X% m% U7 J- Q" f: A5 V
(动态weight策略,我们的加权轮询是显式指定weight的,而fair策略是根据服务器的响应能力进行动态指定的,而意义上讲,我觉得是更为智能化的解决方法,不过这里要记住一点,fair策略是一个第三方策略)7 S7 C! ]* S$ `5 I
5.   url_hash策略
1 `  ^1 U, I1 H: }8 V' v
/ L6 }' d. [' p. r7 j( z" P(类似于ip,只不过绑定的值是url,这个也是第三方策略)
+ N7 ?7 S, \' r" [/ @+ qfair策略与url_hash策略的配置与ip_hash策略的类似,直接把upstream tomcats 中的ip_hash替换为fair和url_hash即可,不过这里需要注意的是fair和url_hash都是第三方扩展,因此需要先安装第三方扩展模块,直接百度搜索nginx-upstream-fair-master.zip与upstream-url-hash -master.zip;解压安装使用make&&make install重新编译源文件即可
2 q$ I2 |! Z+ l/ F; N2 W0 u# O' d% F
7 U; {% i# l0 h3 Q# n( {8 @

( J9 t# ^6 K4 w8 hurl_hash策略的用处?
4 \9 U+ Z+ n) f* l' N& ^: }" P/ t) K' y2 c2 f7 U
url_hash策略比较适合于大型电子商务网站,对于不同的商品便是不同的url,我们可以据此进行负载均衡。, u. h( W" Z. J( K; M
/ y9 W9 N% ?! X: q, I7 j$ O
原理就是不同的商品形成不同的静态页面,然后服务器根据不同商品的火爆程度,按照命中率高的放在缓存里,加快访问速度,也就是说实现了一个基于缓存的服务器,相当于把有限的缓存最优化起来;  }$ C9 W. M1 G/ H( i0 `
: N- g! I! Z% [2 l; x& k

- h: Q5 O9 F# f. n- J8 U2 Q8 G/ y% Y$ I3 U3 V
其他的配置& P' o) a, A5 e3 {  j/ ?) V  W
备份与停机状态:
& J! h1 i; k: h" tserver 192.168.1.64 backup;//备份,不参与转发,只有当所有服务器都挂掉时才参与转发;
; {6 B3 [0 i% [) z
' T: j( G7 D* ^# K( wserver 192.168.1.65 down;//临时停机维护,不参与任何转发,是关闭状态,
0 Y: a1 o6 `+ Y% ^) y1 N
6 Z5 V/ }4 _0 q$ |* W  zdown存在的意义在于,有时我们需要对服务器做临时停机更新维护,假如我们直接关闭服务器的话,那么对于Nginx来说,他还是会把请求发到该服务器上的,因为他并不知道服务器已关,而设置down后,Nginx则不会再发到该服务器上了,避免造成无用的请求浪费。
& q; t* Y! ~+ o$ {& f* I+ q: y
  z) q+ Y2 A$ Z5 g! C  \, ^6 b( M( |% n, A) y  Z1 U
' B7 L1 r! v9 V9 D
max_fails:        达到指定次数后认为服务器挂掉
: A+ H$ g5 N. R( }5 N( [/ Y) U# I5 K  J5 Y
fail_timeout:挂掉多久后再次测试是否已经挂掉
7 k+ }, h  x, A& R# F, }( J( {
" ~( F! u8 X7 H0 S5 u, D配置命令, k3 w' J4 ~$ f5 F. ~6 p
) E5 X7 _+ M- ^/ a& b( ?' Q) i
server 192.168.1.66 max_fails=2 fail_timeout=60s;: ~+ s7 A* r% P* x' r& X: p
' k% I. L  Q/ [4 A! n; S) i
后记
/ ]) [; Q4 v" O1 g. h我们知道,服务器是会存储用户的session的,那么,如果按照上文所说的,比如fair策略,每次Nginx会根据后端服务器群的能力把请求分发出去,那假如第一次时分在了A,那么我把数据存储到了A服务器上,第二次时,刚好被分配到了B服务器上,那么问题来了,我的session不就不见了?(这就是我们在访问部分网站时有时我们的登录状态会不见)当然了,你可能 会说,ip_hash策略不就可以避免这一点吗?没错,这确实是一个解决方法,那除了ip_hash呢?其他策略下又当如何呢?下篇博客将会讲到负载均衡下如何对session进行处理。
3 t* o. H. |+ f0 \! T! O, `! n! z: J

. L5 c5 n( G8 t8 B% U' y. r8 x% H2 o
* c4 ]1 p3 w4 r2 V5 z4 Z$ @
- p$ M% I0 \" a6 _  ~5 _( b. ]
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 分享分享 支持支持 反对反对
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

GMT+8, 2024-5-19 07:59 , Processed in 0.118836 second(s), 24 queries .

Copyright © 2001-2024 Powered by cncml! X3.2. Theme By cncml!