1.Nginx的配置描述
1.1 Nginx的配置项
配置文件为:nginx.conf
user www www;
worker_processes 4;
worker_cpu_affinity 00000001 00000010 00000100 00001000;
#pid /usr/local/nginx/logs/nginx.pid
worker_rlimit_nofile 102400;
events
{
use epoll;
worker_connections 102400;
}
http
{
include mime.types;
default_type application/octet-stream;
fastcgi_intercept_errors on;
charset utf-8;
server_names_hash_bucket_size 128;
client_header_buffer_size 4k;
large_client_header_buffers 4 32k;
client_max_body_size 300m;
sendfile on;
tcp_nopush on;
keepalive_timeout 60;
tcp_nodelay on;
client_body_buffer_size 512k;
proxy_connect_timeout 5;
proxy_read_timeout 60;
proxy_send_timeout 5;
proxy_buffer_size 16k;
proxy_buffers 4 64k;
proxy_busy_buffers_size 128k;
proxy_temp_file_write_size 128k;
gzip on;
gzip_min_length 1k;
gzip_buffers 4 16k;
gzip_http_version 1.1;
gzip_comp_level 2;
gzip_types text/plain application/x-javascript text/css application/xml;
gzip_vary on;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" $request_time';
upstream web1 {
server 127.0.0.1:8080 weight=1 max_fails=2 fail_timeout=30s;
server 127.0.0.1:8081 weight=1 max_fails=2 fail_timeout=30s;
}
upstream web2 {
server 127.0.0.1:8090 weight=1 max_fails=2 fail_timeout=30s;
server 127.0.0.1:8091 weight=1 max_fails=2 fail_timeout=30s;
}
include vhosts.conf;
}
1.2 Nginx的配置详细描述
user www www:
使用什么用户启动NGINX 在运行时使用哪个用户哪个组
worker_processes 4:
启动进程数,一般是1或8个,根据你的电脑CPU数,一般8个
worker_cpu_affinity 00000001 00000010 00000100 00001000:
CPU逻辑数---为每个进程分别绑在CPU上面,为每个进程分配一个CPU
#pid /usr/local/nginx/logs/nginx.pid
Nginx的进程号
worker_rlimit_nofile 102400;
这个指令当一个进程打开的最大文件数目,与NGINX并发连接有关系
#工作模式及连接数上限
events
{
use epoll;
#多路复用IO 基于LINUX2.6以上内核,可以大大提高NGINX的性能
worker_connections 102400;
#单个worker process最大连接数,其中NGINX最大连接数=连接数*进程数(4), 一般1GB内存的机器上可以打开的最大数 大约是10万左右
multi_accept on;
#尽可能多的接受请求,默认是关闭状态
}
#处理http请求的一个应用配置段
http
{
include mime.types;
引用mime.types,这个类型定义了很多,当web服务器收到静态的资源文件请求时,依据请求文件的后缀名在服务器的MIME配置文件中找到对应的MIME Type,根据MIMETYPE设置并response响应类型(Content-type),指定默认类型为二进制流,也就是当文件类型未定义时使用这种方式,此时,用浏览器访问JSP文件就会出现下载窗口
default_type application/octet-stream;
定义的数据流,有的时候默认类型可以指定为text,这跟我们的网页发布还是资源下载是有关系的
fastcgi_intercept_errors on;
表示接收fastcgi输出的http 1.0 response code
charset utf-8;
字符集编码
server_names_hash_bucket_size 128;
保存服务器名字的hash表
client_header_buffer_size 4k;
用来缓存请求头信息的,容量4K,如果header头信息请求超过了,nginx会直接返回400错误,先根据client_header_buffer_size配置的值分配一个buffer,如果分配的buffer无法容纳 request_line/request_header,那么就会再次根据large_client_header_buffers配置的参数分配large_buffer,如果large_buffer还是无法容纳,那么就会返回414(处理request_line)/400(处理request_header)错误。
large_client_header_buffers 4 32k;
client_max_body_size 300m;
允许客户端请求的最大单文件字节数
sendfile on;
指定NGINX是否调用这个函数来输出文件,对于普通的文件我们必须设置为ON,如果NGINX专门做为一个下载端的话可以关掉,好处是降低磁盘与网络的IO处理数及系统的UPTIME
autoindex on;
开启目录列表访问,适合下载服务器
tcp_nopush on;
防止网络阻塞
keepalive_timeout 60;
非常重要,根据实际情况设置值,超时时间,客户端到服务端的连接持续有效时间,60秒内可避免重新建立连接,时间也不能设太长,太长的话,若请求数10000,都占用连接会把服务托死
tcp_nodelay on;
提高数据的实时响应性
client_body_buffer_size 512k;
缓冲区代理缓冲用户端请求的最大字节数(请求多)
proxy_connect_timeout 5;
nginx跟后端服务器连接超时时间(代理连接超时)
proxy_read_timeout 60;
连接成功后,后端服务器响应时间(代理接收超时)
proxy_send_timeout 5;
后端服务器数据回传时间(代理发送超时)
proxy_buffer_size 16k;
设置代理服务器(nginx)保存用户头信息的缓冲区大小
proxy_buffers 4 64k;
proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
proxy_busy_buffers_size 128k;
高负荷下缓冲大小,并发越多,那自然要求的缓存越多
proxy_temp_file_write_size 128k;
设定缓存文件夹大小,大于这个值,将从upstream服务器传
gzip on;
NGINX可以压缩静态资源,比如我的静态资源有10M,压缩后只有2M,那么浏览器下载的就少了
gzip_min_length 1k;
gzip_buffers 4 16k;
gzip_http_version 1.1;
gzip_comp_level 2;
压缩级别大小,最小1,最大9,值越小,压缩后比例越小,CPU处理更快,为1时,原10M压缩完后8M,但设为9时,压缩完可能只有2M了
gzip_types text/plain application/x-javascript text/css application/xml;
压缩类型:text,js css xml 都会被压缩
gzip_vary on;
作用是在http响应中增加一行目的是改变反向代理服务器的缓存策略
#日志格式
log_format main '$remote_addr - $remote_user [$time_local] "$request" ' #ip 远程用户 当地时间 请求URL
'$status $body_bytes_sent "$http_referer" ' #状态 发送的大小 响应的头
'"$http_user_agent" $request_time'; #客户端使用的浏览器 页面响应的时间
1.3 动态转发
upstream web1 {
ip_hash; #每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题
server 127.0.0.1:8080 weight=1 max_fails=2 fail_timeout=30s; #机器性能不一样weight不一样
server 127.0.0.1:8081 weight=1 max_fails=2 fail_timeout=30s;
}
upstream web2 {
server 127.0.0.1:8082 weight=1 max_fails=2 fail_timeout=30s;
server 127.0.0.1:8083 weight=1 max_fails=2 fail_timeout=30s;
}
include vhosts.conf;
}
1.4 vhosts.conf的配置
server {
listen 80;
server_name www.james1.com; #域名
index index.jsp index.html index.htm;
root html;#定义服务器的默认网站根目录位置
location /
{
proxy_next_upstream http_502 http_504 error timeout invalid_header; #如果后端的服务器返回502、504、执行超时等错误,自动将请求转发到upstream负载均衡池中的另一台服务器,实现故障转移。
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://web2;
}
location ~ .*\.(php|jsp|cgi|shtml)?$ #动态分离 ~匹配 以.*结尾(以PHP JSP结尾走这段)
{
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://web2;
}
location ~ .*\.(html|htm|gif|jpg|jpeg|bmp|png|ico|txt|js|css)$ #静态分离 ~匹配 以.*结尾(以PHP JSP结尾走这段),当然不是越久越好,如果有10000个用户在线,都保存几个月,系统托跨
{
root /var/local/static; //静态资源所放位置
expires 30d;
}
# 日志级别有[debug|info|notice|warn|error|crit]
# error_log 级别分为 debug, info, notice, warn, error, crit 默认为crit
# 生产环境用error
# crit 记录的日志最少,而debug记录的日志最多
access_log /usr/local/logs/web2/access.log main;
error_log /usr/local/logs/web2/error.log crit;
}
补充点1:
正常情况下,只有Nginx可以保存客户端的ip信息,因此可以通过Nginx来监控前端访问,防止网络袭击。
但可通过在Nginx里面进行配置,再由tomcat可以获取客户端的IP。
但是拦截策略往往不通过Nginx来做,而是通过redis来处理。
Nginx的负载均衡是后端的