Nginx部分配置介绍

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。


Nginx部分配置介绍

一、Nginx简介

Nginx是俄罗斯人编写的十分轻量级的HTTP服务器,Nginx,它的发音为“engine X”,是一个高性能的HTTP和反向代理服务器,同时也是一个IMAP/POP3/SMTP 代理服务器。
Nginx以事件驱动的方式编写,所以有非常好的性能,同时也是一个非常高效的反向代理、负载平衡。
Nginx因为它的稳定性、丰富的模块库、灵活的配置和低系统资源的消耗而闻名.业界一致认为它是Apache2.2+mod_proxy_balancer的轻量级代替者,不仅是因为响应静态页面的速度非常快,而且它的模块数量达到Apache的近2/3。对proxy和rewrite模块的支持很彻底,还支持mod_fcgi、ssl、vhosts ,适合用来做mongrel clusters的前端HTTP响应。

Nginx专为性能优化而开发,可以支持高并发连接

性能是其最重要的考量,实现上非常注重效率,处理响应请求很快 。它支持内核Poll模型,能经受高负载的考验,有报告表明能支持高达 50,000个并发连接数。

Nginx具有很高的稳定性。

其它HTTP服务器,当遇到访问的峰值,或者有人恶意发起慢速连接时,也很可能会导致服务器物理内存耗尽频繁交换,失去响应,只能重启服务器。例如当前apache一旦上到200个以上进程,web响应速度就明显非常缓慢了。而Nginx采取了分阶段资源分配技术,使得它的CPU与内存占用率非常低。nginx官方表示保持10,000个没有活动的连接,它只占2.5M内存,所以类似DOS这样的攻击对nginx来说基本上是毫无用处的。就稳定性而言,nginx比lighthttpd更胜一筹。

Nginx支持热部署。
它的启动特别容易, 并且几乎可以做到7*24不间断运行,即使运行数个月也不需要重新启动。你还能够在不间断服务的情况下,对软件版本进行进行升级。

Nginx配置简单,只需要修改conf下的nginx.conf文件就行,也就几十行配置,简单的十几行就能搞定。


启动和停止Nginx

Nginx目前只支持命令行操作,进入Nginx部署目录。


1)         启动Nginx:start nginx
2)         停止Nginx:nginx -s stop
3)         修改配置后重启:nginx -s reload

二、nginx.conf 配置文件

Nginx 配置文件主要分成四部分:main(全局设置)、http(HTTP 的通用设置)、server(虚拟主机设置)、location(匹配 URL 路径)。还有一些其他的配置段,如 event,upstream 等。

1、 通用设置

user nginx
指定运行 nginx workre 进程的用户和组
worker_rlimit_nofile #
指定所有 worker 进程能够打开的最大文件数
worker_cpu_affinity
设置 worker 进程的 CPU 粘性,以避免进程在 CPU 间切换带来的性能消耗。如 worker_cpu_affinity 0001 0010 0100 1000;(四核)
worker_processes 4
worker 工作进程的个数,这个值可以设置为与 CPU 数量相同,如果开启了 SSL 和 Gzip,那么可以适当增加此数值
worker_connections 1000
单个 worker 进程能接受的最大并发连接数,放在 event 段中
error_log logs/error.log info
错误日志的存放路径和记录级别
use epoll
使用 epoll 事件模型,放在 event 段中

2、 http 服务器配置

server {}:
定义一个虚拟主机
listen 80;
定义监听的地址和端口,默认监听在本机所有地址上,该端口不能被其他程序占用,否则启动不了,最开始80开始的端口。
server_name NAME [...];
定义虚拟主机名,可以使用多个名称,还可以使用正则表达式或通配符。
sendfile on
开启 sendfile 调用来快速的响应客户端
keepalive_timeout 10
长连接超时时间,单位是秒。
send_timeout
指定响应客户端的超时时间
client_max_body_size 10m
允许客户端请求的实体最大大小
root PATH
设置请求 URL 所对应资源所在文件系统上的根目录
location [ = | ~ | ~* | ^~ ] URI { ... }
设置一个 URI 匹配路径
=:精确匹配
~:正则表达式匹配,区分字符大小写
~*:正则表达式匹配,不区分字符大小写
^~:URI 的前半部分匹配,且不实用正则表达式
优先级:
= > location 完整路径 > ^~ > ~ > ~* > location 起始路径 > location /
allow 和 deny
基于 IP 访问控制,如:
仅允许 192.168.0.1/192.168.255.255 网段客户端访问
allow 192.168.0.1/192.168.255.255;
deny all;

rewrite <REGEX> <REPL> <FLAG>
URL 重写,可以使用多种标记
例如:
rewrite ^/images/(.*\.jpg)$ /imgs/$1 break;
可用的 flag:
- last:重写完成后,继续匹配其他 rewrite 规则
- break:重写完成后不再继续匹配
- redirect:返回 302 重定向(临时重定向),客户端对重定向的 URL 发起新的请求
- permanent:返回 301 重定向(永久重定向),客户端对重定向的 URL 发起新的请求
当我们把前段工程放到nginx的html目录下的时候,我们访问前段工程的时候就需要使用到URL的重写
例如:我们的工程项目叫test,主页面是test目录下的index.html页面。
配置如下:
location/{
rewrite "^/home/(.+)" /test/$1 last;
}
当我们访问主页面的时候使用127.0.0.1:80/home/index.htnl就OK了。

三、反向代理配置

修改部署目录下conf子目录的nginx.conf文件(如nginx/conf/nginx.conf)内容,可调整相关配置。

反向代理配置示例:
在对应的Server里面添加如下配置
location / {#默认的/是指根目录。如果需要配置其他反向代理的路径,可以是根路径 location /test
             #禁用缓存
             proxy_buffering off;
             #设置反向代理的地址
#代理的可以是单独的地址,也可以加端口号,还可以加对应的路径比如http://192.168.1.1:8080/test
             proxy_pass http://192.168.1.1;       
     }

四、负载均衡配置

1、RR(默认)权重轮询

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
例如:
upstream tomcats {
server 192.168.1.1:8080  max_fails=3 fail_timeout=3s weight=9;
server 192.168.1.2:8080  max_fails=3 fail_timeout=3s weight=1;
}
那么10次一般只会有1次会访问到8080,而有9次会访问到8080

2、ip_hash

上面的2种方式都有一个问题,那就是下一个请求来的时候请求可能分发到另外一个服务器,当我们的程序不是无状态的时候(采用了session保存数据),这时候就有一个很大的很问题了,比如把登录信息保存到了session中,那么跳转到另外一台服务器的时候就需要重新登录了,所以很多时候我们需要一个客户只访问一个服务器,那么就需要用iphash了,iphash的每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。

    upstream test {
        ip_hash;
        server 192.168.1.1:8080;
        server 192.168.1.2:8080;
    }

3、fair(第三方)

需要安装第三方的fair插件才能配置使用
按后端服务器的响应时间来分配请求,响应时间短的优先分配。

    upstream backend { 
        fair; 
        server 192.168.1.1:8080;
        server 192.168.1.2:8080;
server 192.168.1.3:8080 backup;#设置为备用主机
    } 

4、url_hash(第三方)

需要安装第三方的url_hash插件才能配置使用
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。 在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
    upstream backend { 
        hash $request_uri; 
        hash_method crc32; 
        server 192.168.1.1:8080;
        server 192.168.1.2:8080;

    } 


每个设备的状态设置为:
1.down 表示单前的server暂时不参与负载
2.weight 默认为1.weight越大,负载的权重就越大。
3.max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误
4.fail_timeout:max_fails次失败后,暂停的时间。
5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
要注意的是 weight 与 ip_hash 是不能同时使用的,原因很简单,他们是不同且彼此冲突的策略。
以上4种负载均衡各自适用不同情况下使用,所以可以根据实际情况选择使用哪种策略模式,不过fair和url_hash需要安装第三方模块才能使用。


下面是一个完整的nginx的配置样例:


#user  nginx;#windows下可以不配置,但是linux下必须配置,不然没有访问权限。你使用用户nginx启动nginx,就配置为user nginx
worker_processes  8;#工作线程数量,可以配置为CPU的数量

error_log logs/error.log;#错误日志输出文件
#error_log logs/error.log notice;
#error_log logs/error.log info;

#pid logs/nginx.pid;#指定进程ID,方便在部署环境的时候写脚本去管理进程

events {
worker_connections 1024;#配置的最大并发连接数量
}
upstream tomcats {
server 192.168.1.1:8080 max_fails=3 fail_timeout=3s weight=9;
server 192.168.1.2:8080 max_fails=3 fail_timeout=3s weight=1;
}

http {
include mime.types;
default_type application/octet-stream;

<span class="hljs-meta">#log_format  main  '$remote_addr - $remote_user [$time_local] <span class="hljs-meta-string">"$request"</span> '</span>
<span class="hljs-meta">#                  '$status $body_bytes_sent <span class="hljs-meta-string">"$http_referer"</span> '</span>
<span class="hljs-meta">#                  '<span class="hljs-meta-string">"$http_user_agent"</span> <span class="hljs-meta-string">"$http_x_forwarded_for"</span>';</span>

<span class="hljs-meta">#access_log  logs/access.log  main;#运行日志,默认在这个日志文件,可以修改。</span>

sendfile        on;
<span class="hljs-meta">#tcp_nopush     on;</span>

<span class="hljs-meta">#keepalive_timeout  0;</span>
keepalive_timeout  <span class="hljs-number">65</span>;<span class="hljs-meta">#设置连接超时时间</span>

<span class="hljs-meta">#gzip  on;</span>
<span class="hljs-meta">#配置一个虚拟的server服务器</span>
server {
    listen       <span class="hljs-number">8880</span>;<span class="hljs-meta">#监听端口</span>
    server_name  localhost;<span class="hljs-meta">#主机名称</span>
    <span class="hljs-meta">#charset koi8-r;</span>
    <span class="hljs-meta">#access_log  logs/host.access.log  main;</span>
    location / {
        root   html;
        proxy_pass http:<span class="hljs-comment">//tomcats;</span>
        index  index.html index.htm;
    }
    location /home {
        rewrite <span class="hljs-string">"^/home/(.+)"</span> /test/$<span class="hljs-number">1</span> last;
    }
   location /Test {
       proxy_pass http:<span class="hljs-comment">//192.168.1.1:8080/TestServlet;</span>
   }
    <span class="hljs-meta">#error_page  404              /404.html;</span>

    <span class="hljs-meta"># redirect server error pages to the static page /50x.html</span>
    <span class="hljs-meta">#</span>
    error_page   <span class="hljs-number">500</span> <span class="hljs-number">502</span> <span class="hljs-number">503</span> <span class="hljs-number">504</span>  /<span class="hljs-number">50</span>x.html;
    location = /<span class="hljs-number">50</span>x.html {
        root   html;
    }
}
include servers<span class="hljs-comment">/*;

}






发布了11 篇原创文章 · 获赞 1 · 访问量 500
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

猜你喜欢

转载自blog.csdn.net/xiaoHui_1126/article/details/103414461
今日推荐