distribución simple solicitud Nginx con balanceo de carga ---- distribuido a varias máquinas

 

requisitos:

Solicitud http://10.3.10.99:8000 distribuido a
http://10.3.10.22:8089/time_discern
http://10.3.10.99:8089/time_discern

 

 

• Nginx es en realidad un conjunto Alojamiento Web módulo de distribución + proxy inverso + aguas arriba que consiste en
máquinas virtuales: para aceptar y responder a las solicitudes de
proxy inverso: Use los hogares con un servidor de datos para obtener los datos de
la corriente: Nginx decir qué servidor de datos para obtener los datos
• Los datos ⾛ a
aceptar el usuario uso 1) las solicitudes de la máquina virtual
2) la máquina virtual para buscar proxy inverso
3) proxy inverso se suelta aguas arriba
4) aguas arriba decirle ⼀ servidor de datos IP
petición 5) del servidor Nginx para tener en cuenta los datos e iniciar Use hogares
6 ) aceptar la solicitud y la solicitud de procesamiento de datos del servidor
7) en respuesta a una solicitud de datos al servidor de la Nginx
. 8) Utilizando el Nginx en respuesta a una petición de usuario

 

 

 

Contenido 2, el archivo de configuración
Contiene tres partes principales
(1) bloque mundial: la instrucción general de la operación de configuración del servidor
Por ejemplo worker_processes 1; el número de disposición de tratamiento concurrente
(2) Eventos bloques: Efecto del servidor Nginx y conexión a la red del usuario
Por ejemplo worker_connections 1024; número máximo de conexiones apoyado por 1.024
bloque (3) http
           También contiene dos partes:
                http bloque mundial
                bloque de servidor

 

nginx.conf

nadie #user; 
worker_processes 1; 

#error_log logs / error.log; 
#error_log logs / error.log aviso; 
#error_log logs / error.log info; 

#pid logs / nginx.pid; 


Eventos { 
    worker_connections 1024; 
} 


Http { 
    incluir mime.types; 
    aplicación default_type / octet-stream; 

    #log_format principal '$ remote_addr - $ usuario_remoto [$ time_local] "$ solicitud"' 
    # '$ $ status body_bytes_sent "$ HTTP_REFERER"' 
    # ' "$ HTTP_USER_AGENT" "$ HTTP_X_FORWARDED_FOR"'; 

    #access_log logs / access.log principal; 

    sendfile en; 
    #tcp_nopush en;

 
    #gzip ON; 

   aguas arriba de la env { 
   # ip_hash; 
# polling un peso probabilidad, la relación de peso y es proporcional al acceso, para el caso de falta de uniformidad en back-end rendimiento del servidor Servidor 10.3.10.22:8089 peso = 10; servidor 10.3. 10.99: 8.089 de peso = 10; } servidor { la escucha 80; nombre_servidor 10.3.10.99; #charset KOI8-R & lt; logs #access_log / host.access.log principal; # UBICACIÓN / { # PROXY_PASS HTTP: // el env / time_discern; # HTML la raíz; index.htm index.html índice #; #} UBICACIÓN / { OFF proxy_redirect; proxy_set_header anfitrión $ anfitrión; # proxy_set_header X-real-IP $ remote_addr; proxy_set_header X-reenvía Por $ proxy_add_x_forwarded_for; PROXY_PASS http: // env / time_discern; } Lugar / time_discern / { proxy_redirect fuera; proxy_set_header anfitrión $ anfitrión; proxy_set_header X-real-IP $ remote_addr; proxy_set_header X-reenvía Por $ proxy_add_x_forwarded_for; PROXY_PASS http: // env; } #Error_page 404 /404.html; # Páginas de error del servidor de redirección a la página estática /50x.html error_page 500 502 503 504 /50x.html; location = {/50x.html HTML raíz; } # Proxy de los scripts PHP para Apache escucha en 127.0.0.1:80 # # Ubicación ~ \ php $ { # PROXY_PASS http://127.0.0.1; #} # Pasan los scripts PHP a la escucha del servidor FastCGI en 127.0.0.1:9000 # # Ubicación ~ \ php $ { # raíz html; # Fastcgi_pass 127.0.0.1:9000; # Fastcgi_index index.php; # Fastcgi_param SCRIPT_FILENAME / scripts $ fastcgi_script_name; # Incluir fastcgi_params; #} # Niegan el acceso a los archivos .htaccess, si la raíz de documentos de Apache # Coincide con uno de nginx # # Ubicación ~ /\.ht { # negar todo; #} } # Otra máquina virtual usando mezcla de IP, nombre-, y basada en el puerto de configuración # #server { # escuchan 8000; # Escuchar algunnombre: 8080; # Another.alias server algunnombre alias; # Lugar / { # raíz html; # Índice index.html index.htm; #} #} # HTTPS # #server { # escuchan ssl 443; # Server localhost; # Ssl_certificate cert.pem; # Ssl_certificate_key cert.key; # Ssl_session_cache compartida: SSL: 1 m; # Ssl_session_timeout 5m; # Ssl_ciphers ALTA: aNULL:!! MD5; Ssl_prefer_server_ciphers # sucesivamente; # Lugar / { # raíz html; # Índice index.html index.htm; #} #} }

 

 

###### detallada de archivos de configuración chino Nginx nginx.conf ##### 

#define corriendo Nginx usuarios y grupos de usuarios 
www usuario www; 

número de proceso #nginx, ajuste recomendado es igual al número total de núcleos CPU. 
8 worker_processes; 
 
# error global Tipos definidos por el registro-[depuración | información | Aviso | El advierten | error | Crit] 
error_log /usr/local/nginx/logs/error.log información; 

archivo pid # proceso 
pid / usr / local / nginx / logs / nginx.pid; 

# especificar el proceso de máxima puede abrir descriptores: número de 
modo de operación # con el número máximo de conexiones 
# este medio de instrucción cuando un proceso se abre el número nginx de descriptores de archivos, el valor teórico deben ser el número máximo de archivos abiertos ( ulimit -n) dividido por el número de proceso de nginx, pero solicitud de asignación de nginx no es tan uniforme, por lo que es mejor para permanecer en línea con el valor de ulimit -n. 
# Ahora abre el archivo en el kernel 2.6 de Linux abierta número 65535, worker_rlimit_nofile hay que rellenar el correspondiente 65535. 
# Esto es debido a que la solicitud de asignación de nginx enviado al proceso no es tan equilibrado, por lo que si usted llena en el 10240, el importe total alcanzó los 3-4 million proceso concurrente cuando puede haber más de 10.240, y luego devuelve un error 502. 
65535; worker_rlimit_nofile 


Eventos 
{
    # Modelo de eventos de referencia, el uso [kqueue | rtsig | epoll | / dev / sondeo | seleccione | encuesta]; epoll modelo 
    # 2.6 o posterior del núcleo de Linux en red de alto rendimiento de I / O modelo, Linux recomienda epoll, si se ejecuta en FreeBSD anteriormente, utilizar el modelo kqueue. 
    Suplemento #: 
    # similares con Apache, Nginx para diferentes sistemas operativos, diferentes modelos de eventos 
    #A) estándar de modelo de eventos 
    # Select, sondeo pertenece al modelo de eventos estándar, si el sistema actual método más eficiente no existe, nginx elegirá seleccionar o sondeo 
    #B) eficiente modelo de eventos 
    #Kqueue: utilizado en FreeBSD 4.1 y versiones posteriores, OpenBSD 2.9 +, NetBSD 2.0 y el sistema MacOS X MacOS X. usando un uso kqueue de doble procesador pueden causar un pánico kernel. 
    #Epoll: El uso del sistema Linux kernel versión 2.6 y posterior. 
    # / Dev / encuesta: se utiliza en Solaris 7 11/99 +, HP / UX 11.22+ (eventport), IRIX 6.5.15+ y Tru64 UNIX + 5.1A. 
    #Eventport: Uso de Solaris 10. Para evitar problemas con el núcleo de pánico, es necesario instalar los parches de seguridad. 
    el uso epoll; 

    # solo proceso número máximo de conexiones (el número máximo de conexiones de conexión * = número de procesos) 
    # acuerdo con el ajuste de hardware, frontal y el trabajo en conjunto con el proceso, lo más grande posible, pero no tienen el 100% de la CPU fue en el viaje. El número máximo de conexiones por proceso número máximo de conexiones permitidas, en teoría, cada servidor es nginx.
    65535 worker_connections; 

    tiempo de espera #keepalive. 
    60 keepalive_timeout; 

    # petición del cliente tamaño del búfer de la cabeza. Esto se puede ajustar de acuerdo con el tamaño de su sistema de paginación, un tamaño general de encabezado de la solicitud no excede 1k, pero debido al sistema de paginación general debe ser mayor que 1 k, asi que aquí conjunto tamaño de la página. 
    # Tamaño de la página se puede pedir PAGESIZE getconf hecho. 
    # [@ Web001 la raíz ~] # PAGESIZE de la getconf 
    # 4096 
    # pero no excede client_header_buffer_size 4k, pero client_header_buffer_size este valor se debe establecer en "tamaño de página del sistema" múltiplo entero. 
    4K client_header_buffer_size; 

    # esto abrirá la caché de archivos especificado no está activado por defecto, máx especificar el número de tampones, recomendaciones y abrir el mismo número de archivos, inactiva se refiere a los archivos de caché de eliminación después no se ha solicitado mucho tiempo. 
    max = 65535 = 60; inactivos open_file_cache 
 
    # se refiere a cuánto tiempo la información es un cheque caché válida.
    # Sintaxis: El tiempo predeterminado open_file_cache_valid: open_file_cache_valid 60 utilizando campos: http., servidor, ubicación cuando está previsto por la instrucción de los cheques de información para la entrada de caché válida en open_file_cache 
    80 open_file_cache_valid;
 
    Por lo menos se utiliza dentro de los parámetros de número de archivo de instrucciones #open_file_cache tiempo inactivo, si más de esta cifra, el descriptor de archivo se ha abierto en la memoria caché, el ejemplo anterior, si un archivo no se usa una vez en el período de inactividad, será eliminado. 
    # Sintaxis: número open_file_cache_min_uses por defecto: 1 open_file_cache_min_uses campo Usar: http, servidor, ubicación Esta directiva especifica el número mínimo de archivos en open_file_cache parámetros de comandos no válidos que se pueden utilizar dentro de un cierto período de tiempo, si se utiliza un valor mayor, descripción del archivo personaje en la memoria caché está siempre abierta. 
    open_file_cache_min_uses 1; 
    
    # sintaxis: open_file_cache_errors on | off valor por defecto: open_file_cache_errors off utilizando el campo:. http, servidor, ubicación esta directiva especifica si un archivo se graba en el error de búsqueda caché 
    open_file_cache_errors oN; 
} 
 
 
 
# http configuración del servidor, usando su característica de proxy inverso proporciona soporte para el equilibrio de carga 
HTTP 
{ 
    extensión # y tipo de archivo archivo de mapa 
    incluyen mime.types;

    # Tipo de archivo predeterminado 
    aplicación de archivo default_type / octet-stream; 

    # codificación por defecto  
    #charset UTF 8;

    # servidor de nombres de hash tamaño de la tabla 
    # servidor de nombre de tabla hash almacenado por el server_names_hash_max_size instrucción y server_names_hash_bucket_size controlada. Parámetro de tamaño de hash cubo es siempre igual al tamaño de la tabla hash, y un tamaño de caché de forma múltiple del procesador. La reducción del número de accesos en la memoria después de la búsqueda en la tabla hash de las claves acelerado en el procesador se hace posible. Si el tamaño de hash cubo igual al tamaño de la caché del procesador hasta el final, y luego encontrar la clave, el número de veces que el peor de los casos de consulta en la memoria 2. El primero es determinar la unidad de almacenamiento de direcciones, y la segunda es encontrar la llave en una unidad de almacenamiento. Así, dada si se requiere para aumentar Nginx símbolo de hash tamaño tamaño o de hash max cubo, entonces el tamaño de la primera es el parámetro primario incrementa en uno. 
    Server_names_hash_bucket_size 128; 

    # cliente tamaño de búfer de solicitud de la cabeza. Esto se puede ajustar de acuerdo con el tamaño de su sistema de paginación, un tamaño general de encabezado de la solicitud no excede 1k, pero debido al sistema de paginación general debe ser mayor que 1 k, asi que aquí conjunto tamaño de la página. tamaño de la página se puede pedir getconf PAGESIZE hizo. 
    client_header_buffer_size 32K; 

    # petición del cliente tamaño del búfer de encabezado. nginx utilizará el valor predeterminado client_header_buffer_size este buffer para leer el valor de la cabecera, si la cabecera es demasiado grande, se utilizará large_client_header_buffers de leer. 
    large_client_header_buffers 64K 4;. 

    # Nginx conjunto por el tamaño del archivo subido 
    8m client_max_body_size;

    # Transferencia de archivos eficiente abierto, nginx sendfile especifica la instrucción si la llamada a la función sendfile archivos de salida para su aplicación general en ON, si la aplicación utiliza para descargar los IO aplicaciones de servicio pesado de disco, puede ponerse en Off, con el fin de equilibrar el disco y red de E / O velocidad de procesamiento y reducir la carga en el sistema. Nota: Si la imagen no se muestra correctamente puesto en esto. 
    #sendfile especifica si la función directiva nginx sendfile llamada (modo de copia cero) para los archivos de salida para aplicaciones comunes, debe estar activado. Si la aplicación se utiliza para descargar las aplicaciones de servicio pesado S de disco, puede ser desactivado, con el fin de equilibrar la velocidad de procesamiento del disco con la red IO, reducir el tiempo de actividad del sistema. 
    EN sendfile; 

    # abiertos listados de directorios de acceso, descarga el servidor apropiado, desactivada por defecto. 
    EN autoindex; 

    # Esta opción activa o desactiva el uso de la opción de TCP_CORK socke, esta opción sólo se utiliza cuando el uso de sendfile 
    tcp_nopush ON; 
     
    TCP_NODELAY ON; 

    # tiempo de conexión más largo, en segundo 
    keepalive_timeout 120; 

    parámetros relacionados #FastCGI el fin de mejorar el rendimiento del sitio web: reducir el consumo de recursos, mejorar la velocidad de acceso. Los siguientes parámetros pueden ver, literalmente, la comprensión. 
    300 fastcgi_connect_timeout; 
    fastcgi_buffer_size 64K; 
    fastcgi_buffers 4 64K.; 
    fastcgi_send_timeout 300;
    300 fastcgi_read_timeout; 
        equilibrio de carga de #upstream, el peso es un peso, el peso se puede definir de acuerdo con la configuración de la máquina. Cuanto mayor sea el mayor es el parámetro de probabilidad Peso es el peso, el valor de peso está asignado.
    128K fastcgi_busy_buffers_size; 
    fastcgi_temp_file_write_size 128K; 

    #gzip módulo dispuesto 
    gzip sobre; # gzip abierto salida comprimida 
    gzip_min_length 1k; # mínimas comprimido de tamaño de archivo 
    gzip_buffers 4 16k; # tampón descompresión 
    gzip_http_version 1,0; versión comprimida # (1,1 predeterminada, si el extremo delantero es squid2.5 utilizar 1.0) 
    gzip_comp_level 2; nivel de compresión # 
    gzip_types x- texto / llanura aplicación / texto de la solicitud css javascript / / xml; # tipo de compresión, por defecto ya incluido TEXTML, así que no escribe lo siguiente, no habrá de escritura de hasta problema, pero no será un advierten. 
    gzip_vary en; 

    cuando los límites # conexiones abiertas el número de IP requiere 
    contenido #limit_zone rastreador $ binary_remote_addr es de 10 m; 



    # equilibrio de carga de configuración 
    aguas arriba piao.jd.com { 
     
        Servidor 192.168.80.121:80 peso = 3;. 
        Servidor 192.168.80.122:80 peso = 2 ; 
        Servidor = peso 192.168.80.123:80 3;. 

        #Nginx las aguas arriba soportes forma de realización actual de cuatro asignados 
        # 1, un sondeo (por defecto) 
        # asignado individualmente a cada solicitud una cronológica diferente el servidor de servicios de fondo si el servidor back-end se ha reducido, excluido automáticamente. 
        2 #, peso 
        # probabilidad para el sondeo, el peso, y es proporcional a la relación de acceso, para el caso en que el rendimiento del servidor de servicios de fondo desigual. 
        # Por ejemplo: 
        bakend #upstream { 
        # servidor 192.168.0.14 peso = 10; 
        # servidor 192.168.0.15 peso = 10; 
        #} 
        # 2, ip_hash 
        resultado # hash para cada solicitud asignado por el acceso IP, de manera que cada acceso de invitados a un fijo servidor back-end, se puede resolver el problema de la sesión. 
        # Por ejemplo: 
        #upstream bakend { 
        # ip_hash; 
        # Servidor 192.168.0.14:88; 
        # Servidor 192.168.0.15:80;
        } # 
        # ip_hash; 
        . # 3, Feria (tercera parte)
        # De acuerdo con el tiempo de respuesta de la solicitud de asignación del servidor de fondo, una respuesta a corto asignación de prioridad de tiempo. 
        {Backend #upstream 
        server1 Servidor #; 
        # Servidor de servidor 2; 
        # Feria; 
        #} 
        . # 4, url_hash (tercero) 
        # Pulsar resultado de control a petición de asignación de acceso URL, cada URL dirigida al mismo servidor back-end, el backend servidor es más eficaz cuando la memoria caché. 
        Ejemplo #: hash declaración en el sentido ascendente, la declaración de servidor no se puede escribir otros parámetros como el peso, el algoritmo de hash se utiliza hash_method 
        #upstream back-end { 
        # Servidor squid1: 3128; 
        squid2 # Servidor: 3128; 
        # $ REQUEST_URI de hash; 
        # CRC32 hash_method; 
        #} 

        #tips: 
        Ip y bakend #upstream estado del dispositivo {# definen el equilibrio de carga dispositivo {} 
        # servidor 127.0.0.1:9090 de Down; 
        # 2 = peso 127.0.0.1:8080 servidor; 
        # servidor 127.0.0.1:6060; 
        # 127.0.0.1:7070 servidor de copia de seguridad; 
        #} 
        # incremento PROXY_PASS en la carga del servidor equilibrar la necesidad de uso http: // bakend /; 

        estado de cada dispositivo está ajustado en #: 
        # 1.down un único servidor frontal temporalmente no está participar en la carga 
        # 2.weight al peso mayor, la carga de peso de mayor peso. 
        # 3.max_fails: permiten por defecto cuando el número de solicitudes con error es 1. excede el máximo error de frecuencia se devuelve módulo proxy_next_upstream definición 
        # 4.fail_timeout: Después de max_fails fallaron, tiempo de pausa. 
        # 5.backup: Todos los demás hacia abajo de la máquina no copia de seguridad o está ocupado, solicitan máquina de copia de seguridad. Por lo que esta máquina será la presión más ligera. 

        #nginx soporta la carga simultánea de equilibrio múltiples conjuntos de ajustes, no se utiliza al servidor para su uso. 
        #client_body_in_file_only en On puede hablar de post cliente a través de los datos en un archivo utilizados para la depuración
        #client_body_temp_path establece el archivo de registro de directorio se puede configurar hasta tres capas catálogo 
        # Ubicación de una coincidencia de URL se puede redirigir o una nueva carga de proxy equilibrar 
    } 
     
     
     
    configuración de host virtual #
    Servidor 
    { 
        puerto # escucha 
        la escucha 80; 

        # puede tener varios nombres de dominio, separados por espacios 
        server www.jd.com jd.com; 
        indexar el index.htm index.html index.php; 
        la raíz / Datos / WWW / JD; 

        # de ****** equilibrio de carga 
        ? UBICACIÓN ~ * (PHP | php5) .. $ 
        { 
            fastcgi_pass 127.0.0.1:9000; 
            index.php fastcgi_index; 
            el include fastcgi.conf; 
        } 
         
        # picture tiempo de caché 
        ubicación ~ * .. (GIF | JPG | jpeg | PNG | BMP | SWF) $  
        {
            Expires 10d; 
        } 
         
        #js almacenamiento en caché y el tiempo CSS configuración 
        UBICACIÓN ~ * (JS | CSS) $ ..? 
        {
            Expira IH; 
        } 
         
        # registro formatear 
        # $ y $ remote_addr HTTP_X_FORWARDED_FOR para el registro de la dirección IP del cliente; 
        # $ REMOTE_USER: un cliente que se utiliza para registrar el nombre de usuario; 
        # $ time_local: tiempo de acceso a registrar la zona horaria; 
        # $ Solicitud : url http protocolo se utiliza para solicitud de registro; 
        # $ de estado: se utiliza para registrar el estado de la solicitud, el éxito es 200, 
        # $ body_bytes_sent: los registros se envían al cliente el tamaño del archivo de contenido principal; 
        # $ HTTP_REFERER: para grabar desde que el vínculo acceso a través de; 
        # $ HTTP_USER_AGENT: registrar información sobre el navegador del cliente;
        # Definir esta virtual de acceso anfitriones registro 
        access_log /usr/local/nginx/logs/host.access.log principal; 
        # generalmente revertir servidor web proxy en la parte posterior, por lo que no puede llegar a la dirección IP del cliente y por $ remote_add obtener la dirección IP de la dirección IP del servidor proxy inverso. Revertir servidor proxy reenvía la información de cabecera de petición HTTP, puede aumentar x_forwarded_for solicitud de información para registrar la dirección IP del servidor de la dirección de los clientes actuales y antiguos clientes.
        Acceso log_format 'REMOTE_ADDR $ - $ REMOTE_USER [$ time_local] "Solicitud $"' 
        '$ $ body_bytes_sent Estado "$ HTTP_REFERER"' 
        ' "$ HTTP_USER_AGENT" $ HTTP_X_FORWARDED_FOR'; 
         
        /usr/local/nginx/logs/host.access access_log. log404 404.log; 
         
        # a "/" enable proxy inverso 
        UBICACIÓN / { 
            PROXY_PASS http://127.0.0.1:88; 
            proxy_redirect OFF; 
            proxy_set_header el X-real-IP- $ REMOTE_ADDR; 
             
            # servidor web de back-end a través de X-Remitido -Para obtener IP real del usuario 
            proxy_set_header los X-reenvía el por- $ proxy_add_x_forwarded_for; 
             
            # Éstos son algunos de configuración de proxy inverso, opcional. 
            proxy_set_header anfitrión $ anfitrión;

            10m client_max_body_size; 

            el número máximo de bytes en el buffer solicitados por el cliente proxy caché #, 
            # si se establece en un valor relativamente grande, por ejemplo 256k, a continuación, independientemente de si el navegador Firefox IE a presentar como menos de 256k imágenes son normal. Si un comentario a esta instrucción, utilice la configuración predeterminada client_body_buffer_size, que es el doble del tamaño de la página del sistema operativo, 8k o 16k, surge el problema.
            Independientemente # firefox4.0 o IE8.0, presentó un relativamente grande, alrededor de 200k, imágenes de retorno 500 Internal Server Error Error 
            client_body_buffer_size 128K; 

            # representa los nginx impiden código de respuesta HTTP de respuesta 400 o superior. 
            proxy_intercept_errors sobre; 

            conexión con el servidor back-end # tiempo de espera _ inician un apretón de manos de tiempo de espera esperando una respuesta 
            de conexión #nginx con el tiempo de espera del servidor de fondo (proxy de tiempo de espera de conexión) 
            ; proxy_connect_timeout 90 

            # backend tiempo de retorno de datos del servidor (Enviar Tiempo de espera) 
            después de # los datos del servidor final _ tiempo de retorno está dentro de un tiempo predeterminado del servidor back-end a través después de que todos los datos deben 
            proxy_send_timeout 90; 

            # después de la conexión con éxito, el tiempo de respuesta del servidor backend (recepción agente de tiempo de espera) 
            # exitosa conexión con el servidor de espera de respuesta del servidor _ tiempo _ de hecho, ha entrado en la cola de espera para el procesamiento de back-end (también se puede decir que fue el servidor de servicios de fondo para procesar la solicitud) 
            proxy_read_timeout 90; 

            # configurar un servidor proxy (nginx) para guardar la información del encabezado del tamaño de la memoria intermedia del usuario
            # Establecer el tamaño de la primera parte de la memoria intermedia se lee el servidor proxy de respuesta, que normalmente contiene una pequeña porción de la cabecera de la respuesta de la respuesta, este valor es el tamaño por defecto para el caso en que la instrucción especificada proxy_buffers tamaño de un tampón, Sin embargo, se puede configurar para que sea menor 
            proxy_buffer_size 4K; 

            #proxy_buffers buffer, páginas promedio 32k proporcionan los siguientes 
            ajustes para la respuesta de lectura # (desde el servidor proxy) y el número de tamaño del búfer, también para el tamaño de página por defecto, el sistema operativo puede ser diferente o 4K 8K 
            proxy_buffers 32K 4;. 

            # alta carga de tamaño de búfer (proxy_buffers * 2) 
            proxy_busy_buffers_size 64K; 

            proxy_temp_path proporcionado en el tamaño de los datos de escritura, bloqueando la prevención de un proceso de trabajo cuando la transferencia de archivos es demasiado largo # 
            # carpeta de caché conjunto mayor tamaño que este valor, desde el servidor de transferencia aguas arriba 
            proxy_temp_file_write_size 64K; 
        } 
         
         
        # Comprobar Nginx dirección de ajuste de estado 
        UBICACIÓN / NginxStatus { 
            stub_status ON; 
            access_log ON;
            auth_basic "NginxStatus"; 
        {
            auth_basic_user_file confpasswd; 
            htpasswd #htpasswd contenido puede proporcionar herramientas para generar Apache. 
        } 
         
        # Local estática y separación dinámica de configuración de proxy inverso 
        # todas las páginas JSP fueron entregados a Tomcat o tratamiento de resina 
        UBICACIÓN ~ (JSP | JSPX | hacer) {$.? 
            Proxy_set_header $ Anfitrión; 
            proxy_set_header el X-real-IP- $ REMOTE_ADDR; 
            proxy_set_header la X- $ proxy_add_x_forwarded_for del Para - reenviado; 
            PROXY_PASS http://127.0.0.1:8080; 
        } 
         
        # Todos los archivos estáticos nginx leen directamente sin pasar por un gato o resina 
        UBICACIÓN ~ * (HTM | HTML | GIF | JPG | jpeg | PNG .. | BMP | SWF | COI | RAR | postal | TXT | FLV | MID | DOC | PPT | 
        PDF | XLS | MP3 | WMA) $ 
        }
            15d del Expira;
         
        ? .. UBICACIÓN ~ * (JS | CSS) $ 
        { 
            el Expira 1H; 
        } 
    } 
} 
###### Nginx fichero de configuración ##### nginx.conf detallada china

 

Supongo que te gusta

Origin www.cnblogs.com/ComputerVip/p/12629462.html
Recomendado
Clasificación