目录
2.2.1 Http代理,反向代理:作为web服务器最常用的功能之一,尤其是反向代理
【写在前面】
今天自学了Nginx相关的一些基础知识,参考了下方这些文章,写得都清晰明了,推荐。
下方文章是我的学习笔记,内容和图片都来自这些文章,我仅做自学记录,在此附上文章链接,可以直接去看博主原文,都非常好。如侵,会删,谢谢。
Nginx 入门学习教程 - 星云博客园 - 博客园 (cnblogs.com)
反向代理和正向代理区别 - 泛夜泰克 - 博客园 (cnblogs.com)
Nginx 配置详解 | 菜鸟教程 (runoob.com)
1. 正向代理和反向代理
1.1 正向代理
(1)什么是正向代理?
正向代理类似一个跳板机,代理访问外部资源。
如今的网络环境下,我们要去访问某些外网,此时会发现位于这些外网是无法访问的,此时最常用
的一个做法是:用一个操作FQ(VPN),FQ的方式主要是找到一个可以访问国外网站的代理服务
器,我们将请求发送给代理服务器,代理服务器去访问国外的网站,然后将访问到的数据传回。这
个模式就是正向代理。
(2)正向代理的特点
客户端非常明确要访问的服务器地址;
服务器只清楚请求来自哪个代理服务器,而不清楚来自哪个具体的客户端;
正向代理模式屏蔽或者隐藏了真实客户端信息。
(3)正向代理的用途
访问原来无法访问的外网资源;
可以做缓存,加速访问资源;
对客户端访问授权,上网进行认证;
代理可以记录用户访问记录(上网行为管理),对外隐藏用户信息;
附图来自文首推荐的文章:
1.2 反向代理
(1)什么是反向代理?
反向代理(Reverse Proxy)实际运行方式是指以代理服务器来接受internet上的连接请求,然后将
请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户
端,此时代理服务器对外就表现为一个服务器。
比如:用户在淘宝客户端发出请求,经过了Nginx 反向代理服务器,nginx服务器接收到之后,按
照一定的规则分发给了后端的业务处理服务器进行处理。
即:请求的来源也就是客户端是明确的,但是请求具体由哪台服务器处理的并不明确了。Nginx扮演的就是一个反向代理角色。
(2)反向代理的特点
反向代理,主要用于服务器集群分布式部署的情况下,反向代理隐藏了服务器的信息;
(3)反向代理的用途
保证内网安全,阻止web攻击,大型网站通常将反向代理作为公网访问地址,Web服务器是内网;
负载均衡,通过反向代理服务器来优化网站的负载;
附图来自文首推荐的文章:
1.3 正向代理和反向代理一起使用
正向代理:是客户端代理, 它代理客户端, 服务端不知道实际发起请求的客户端。proxy和client同属一个LAN,对server透明。
VS
反向代理:是服务端代理, 它代理服务端, 客户端不知道实际提供服务的服务端。proxy和server同属一个LAN,对client透明。
附图来自文首推荐的文章:
2. Nginx基础
2.1 Nginx相关概念
(1)什么是Nginx?
nginx [engine x]是HTTP和反向代理服务器,邮件代理服务器,通用TCP / UDP代理服务器。
Nginx是一个异步框架的 Web服务器,也可以用作反向代理,负载平衡器 和 HTTP缓存。
即:
nginx是一款自由的、开源的(BSD)、高性能的HTTP服务器和反向代理服务器;
同时也是一个IMAP、POP3、SMTP代理服务器;
nginx可以作为一个HTTP服务器进行网站的发布处理,
另外nginx可以作为反向代理进行负载均衡的实现。
一大部分Web服务器使用Nginx,通常作为负载均衡器。
(2)Nginx的功能有哪些?
基本的HTTP服务器功能
其他HTTP服务器功能
邮件代理服务器功能
TCP / UDP代理服务器功能
体系结构和可扩展性
经测试的操作系统和平台
比如:Dropbox,Netflix,Wordpress.com,FastMail.FM...
2.2 Nginx常用功能
2.2.1 Http代理,反向代理:作为web服务器最常用的功能之一,尤其是反向代理
(1)Nginx在做反向代理时,提供性能稳定,并且能够提供配置灵活的转发功能。
(2)Nginx可以根据不同的正则匹配,采取不同的转发策略,比如图片文件结尾的走文件服务器,
动态页面走web服务器,只要正则写的没问题,又有相对应的服务器解决方案,即可。
(3)并且Nginx对返回结果进行错误页跳转,异常判断等。如果被分发的服务器存在异常,他可以
将请求重新转发给另外一台服务器,然后自动去除异常服务器。
2.2.2 负载均衡
(1)什么是负载量?
上面客户端发送的、nginx反向代理服务器接收到的请求数量,就是负载量。
(2) 什么是均衡?
请求数量按照一定的规则进行分发到不同的服务器处理的规则,就是一种均衡规则。
(3)什么是负载均衡?
即:将服务器接收到的请求按照规则分发的过程。
(4)负载均衡的分类:硬件负载均衡,软件负载均衡
在实际项目操作过程中,有硬件负载均衡和软件负载均衡两种
硬件负载均衡也称为硬负载,特点:造价昂贵成本较高,数据的稳定性安全性好。
考虑到成本原因,很多会选择使用软件负载均衡,软件负载均衡是利用现有的技术结合主机硬件实
现的一种消息队列分发机制。
(5)nginx支持的负载均衡调度算法(方式一)
weight轮询(默认):接收到的请求按照顺序逐一分配到不同的后端服务器,即使在使用过程中,某一台后端服务器宕机,nginx会自动将该服务器剔除出队列,请求受理情况不会受到任何影响。 这种方式下,可以给不同的后端服务器设置一个权重值(weight),用于调整不同的服务器上请求的分配率;权重数据越大,被分配到请求的几率越大;该权重值,主要是针对实际工作环境中不同的后端服务器硬件配置进行调整的。
ip_hash:每个请求按照发起客户端的ip的hash结果进行匹配,这样的算法下一个固定ip地址的客户端总会访问到同一个后端服务器,这也在一定程度上解决了集群部署环境下session共享的问题。
fair:智能调整调度算法,动态的根据后端服务器的请求处理到响应的时间进行均衡分配,响应时间短处理效率高的服务器分配到请求的概率高,响应时间长处理效率低的服务器分配到的请求少;结合了前两者的优点的一种调度算法。但是需要注意的是nginx默认不支持fair算法,如果要使用这种调度算法,请安装upstream_fair模块。
url_hash:按照访问的url的hash结果分配请求,每个请求的url会指向后端固定的某个服务器,可以在nginx作为静态服务器的情况下提高缓存效率。同样要注意nginx默认不支持这种调度算法,要使用的话需要安装nginx的hash软件包。
(5)nginx支持的负载均衡调度算法(方式二)
一种Nginx处理静态资源实现负载均衡的架构。
1)原始企业架构的特点:单节点,几乎无容灾,负载能力低,维护简单。
附图来自文首推荐的文章:
2)改善后的动静分离的模式:这种架构模式,使用Nginx 来处理所有的html,js,css 静态资源请求,这样Tomcat 压力就会减轻一些,这样操作也能实现一定程度的负载均衡。
附图来自文首推荐的文章:
2.2.3 Web缓存
Nginx可以对不同的文件做不同的缓存处理,配置灵活。
并且支持FastCGI_Cache,主要用于对FastCGI的动态程序进行缓存。
配合着第三方的ngx_cache_purge,对制定的URL缓存内容可以的进行增删管理。
2.3 Nginx的配置详解
(1)默认的nginx 文件结构
... #全局块 events { #events块 ... } http #http块 { ... #http全局块 server #server块 { ... #server全局块 location [PATTERN] #location块 { ... } location [PATTERN] { ... } } server { ... } ... #http全局块 }
解析:
- 全局块:配置影响nginx全局的指令。一般有运行nginx服务器的用户组,nginx进程pid存放路径,日志存放路径,配置文件引入,允许生成worker process数等。
- events块:配置影响nginx服务器或与用户的网络连接。有每个进程的最大连接数,选取哪种事件驱动模型处理连接请求,是否允许同时接受多个网路连接,开启多个网络连接序列化等。
- http块:可以嵌套多个server,配置代理,缓存,日志定义等绝大多数功能和第三方模块的配置。如文件引入,mime-type定义,日志自定义,是否使用sendfile传输文件,连接超时时间,单连接请求数等。
- server块:配置虚拟主机的相关参数,一个http中可以有多个server。
- location块:配置请求的路由,以及各种页面的处理情况.
(2)nginx 配置文件 nginx.conf 示例
如下:
########### 每个指令必须有分号结束。################# #user administrator administrators; #配置用户或者组,默认为nobody nobody。 #worker_processes 2; #允许生成的进程数,默认为1 #pid /nginx/pid/nginx.pid; #指定nginx进程运行文件存放地址 error_log log/error.log debug; #制定日志路径,级别。这个设置可以放入全局块,http块,server块,级别以此为:debug|info|notice|warn|error|crit|alert|emerg events { accept_mutex on; #设置网路连接序列化,防止惊群现象发生,默认为on multi_accept on; #设置一个进程是否同时接受多个网络连接,默认为off #use epoll; #事件驱动模型,select|poll|kqueue|epoll|resig|/dev/poll|eventport worker_connections 1024; #最大连接数,默认为512 } http { include mime.types; #文件扩展名与文件类型映射表 default_type application/octet-stream; #默认文件类型,默认为text/plain #access_log off; #取消服务日志 log_format myFormat '$remote_addr–$remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for'; #自定义格式 access_log log/access.log myFormat; #combined为日志格式的默认值 sendfile on; #允许sendfile方式传输文件,默认为off,可以在http块,server块,location块。 sendfile_max_chunk 100k; #每个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限。 keepalive_timeout 65; #连接超时时间,默认为75s,可以在http,server,location块。 upstream mysvr { server 127.0.0.1:7878; server 192.168.10.121:3333 backup; #热备 } error_page 404 https://www.baidu.com; #错误页 server { keepalive_requests 120; #单连接请求上限次数。 listen 4545; #监听端口 server_name 127.0.0.1; #监听地址 location ~*^.+$ { #请求的url过滤,正则匹配,~为区分大小写,~*为不区分大小写。 #root path; #根目录 #index vv.txt; #设置默认页 proxy_pass http://mysvr; #请求转向mysvr 定义的服务器列表 deny 127.0.0.1; #拒绝的ip allow 172.18.5.54; #允许的ip } } }
上面是nginx的基本配置,需要注意的有以下几点:
1)几个常见配置项:
- $remote_addr 与 $http_x_forwarded_for 用以记录客户端的ip地址;
- $remote_user :用来记录客户端用户名称;
- $time_local : 用来记录访问时间与时区;
- $request : 用来记录请求的url与http协议;
- $status : 用来记录请求状态;成功是200;
- $body_bytes_s ent :记录发送给客户端文件主体内容大小;
- $http_referer :用来记录从那个页面链接访问过来的;
- $http_user_agent :记录客户端浏览器的相关信息;
2)惊群现象:一个网路连接到来,多个睡眠的进程被同时叫醒,但只有一个进程能获得链接,这样会影响系统性能。
3)每个指令必须有分号结束。