Shenzhen, una carta león Nginx le enseñe lo que puede hacer en el final

En el caso del papel sólo para Nginx no carga los módulos de terceros que pueden manejar las cosas tanto porque los módulos de terceros también introducen sin fin, por supuesto, este artículo sí mismo no puede ser una introducción completa, después de todo, sólo mi uso personal y comprenden demasiado agradable intercambio de mensajes de bienvenida.
Nginx puede hacer
un proxy inverso
de equilibrio de carga
del servidor HTTP (estática y dinámica de separación)
proxy de reenvío
es todo lo que he aprendido en Nginx no se basa en módulos de terceros pueden manejar las cosas, la siguiente descripción detallada de cada función de cómo hacerlo.
Proxy inverso
inversa de proxy Nginx debe hacerse a una cosa, ¿qué es el proxy inverso, la siguiente declaración es Baidu Encyclopedia: modo de proxy inverso (proxy inverso) se refiere al servidor proxy para que acepte en el Internet solicitud de conexión, a continuación, reenvía la solicitud al servidor de la red interna, y los resultados obtenidos de la parte posterior del servidor al cliente que solicita la conexión a internet, en cuyo caso el rendimiento de servidor proxy externa de un servidor proxy inverso. Simplemente no es cierto servidor de acceder directamente a la red externa, por lo que necesita un servidor proxy y servidor proxy puede acceder simultáneamente a la red externa de cualquier relación con el mismo servidor real en un entorno de red, por supuesto, puede ser el mismo servidor, puerto diferente. La siguiente pasta un simple trozo de código para lograr proxy inverso
servidor {
la escucha 80;
localhost server;
1024M client_max_body_size;
UBICACIÓN / {
PROXY_PASS http: // localhost: 8080;
proxy_set_header el anfitrión h la s t : anfitrión: SERVER_PORT;
}
}
Después de guardar el archivo de configuración para iniciar Nginx, de modo que cuando se visita el localhost, equivalente al acceso localhost: 8080 el
equilibrio de carga
equilibrio Nginx carga es un comúnmente función utilizada, balanceo de carga su significado es compartida a través de múltiples unidades operativas en la ejecución, tales como servidores web, servidores FTP, servidores de aplicaciones críticas de negocio y otros servidores de misión crítica, con el fin de trabajar juntos para completar la tarea. En términos simples, es que cuando hay dos o más conjuntos de servidores, distribuidos de acuerdo con una petición de regla de azar para el proceso de servidor especificado, la configuración de equilibrio de carga en general, es necesario configurar el proxy inverso, que saltar a través del equilibrador de carga proxy inverso. El Nginx apoya actualmente tres tipos de estrategia de balanceo de carga nativo, hay dos tipos de políticas populares de terceros.
1, RR (predeterminado)
cada solicitud asignado individualmente a un servidor back-end orden de tiempo diferente, si el servidor de fondo está abajo, se puede eliminar de forma automática.
Configuración sencilla
aguas arriba {Prueba
localhost servidor: 8080;
localhost servidor: 8081;
}
Servidor {
la escucha 81;
server localhost;
1024M client_max_body_size;
UBICACIÓN / {
PROXY_PASS HTTP: // prueba;
proxy_set_header el anfitrión h la s t : anfitrión: Server_port;

}
}
El equilibrio de carga código del núcleo
aguas arriba de la prueba {
localhost servidor: 8080;
localhost servidor: 8081;
}
Aquí, he configurado los dos servidores, por supuesto, es de hecho uno, pero no el mismo puerto, y 8081 Server no existe , que no es a la visita, pero nos visite http: // localhost tiempo, no habrá un problema, se pondrá por defecto para saltar a la dirección http: // localhost: 8080 específicamente porque el servidor Nginx estado determinará automáticamente si el servidor no es accesible (servidor colgó), no saltará a este servidor, por lo que evita un servidor vinculado a la situación afecta el uso, ya que la política por defecto RR Nginx, no necesitamos tantos más ajustes .
2, el peso
de votación una probabilidad proporcional al cociente de peso y el acceso, para el caso en el rendimiento del servidor backend desniveles. Por ejemplo,
aguas arriba de prueba {
localhost Servidor: 8080 peso = 9;
localhost Servidor: 8081 peso = 1;
}
entonces por lo general sólo 10 tendrá acceso a un 8081 veces, y 9 veces accesos a 8.080
. 3, ip_hash
Las anteriores dos tipos de métodos tienen un problema que cuando la siguiente petición a la petición puede ser distribuido a otro servidor, cuando nuestro programa no tiene estado (utilizando la sesión o guardar datos), esta vez no es una gran el mismo problema, como para guardar la información de inicio de sesión a la sesión, y luego saltar a otro servidor cuando se necesita para conectarse de nuevo, tantas veces que necesitamos un acceso de cliente único servidor, a continuación, es necesario utilizar iphash y iphash cada solicitud se asigna de acuerdo ip resultado hash de la visita, de modo que cada visitante a acceder a un servidor de servicios de fondo fijo, puede resolver el problema de la sesión.
{Prueba aguas arriba
ip_hash;
servidor localhost: 8080;
localhost servidor: 8081;
}
. 4, Feria (tercero)
por el tiempo de respuesta de la solicitud de asignación al servidor de fondo, una respuesta a corto asignación de prioridad de tiempo.
{Backend aguas arriba
Feria;
localhost servidor: 8080;
localhost servidor: 8081;
}
5, url_hash (tercero).
Por los resultados de hash a petición de asignación de acceso URL, cada URL dirigida al mismo servidor backend para la caché del servidor back-end cuando más eficaz. Hash declaración en sentido ascendente, declaración servidor no se puede escribir otros parámetros como el peso, el algoritmo de hash se utiliza hash_method
back-end {aguas arriba
de hashKatex error de análisis: Se esperaba 'EOF' , consiguió '}' en la posición 93: ... ocalhost: 8081;} cinco o más equilibrado de carga de cada NA ... {
la raíz E: wwwroot;
}
# solicitudes se envían a toda dinámica Tomcat procesamiento de
localización . ~ (JSP | hacer) {$
PROXY_PASS HTTP: // Test;
}
error_page 500 502 503 504 /50x.html;
UBICACIÓN = {/50x.html
raíz e: wwwroot;
}
}
para que podamos ahora, así como imágenes y HTML css y js en el directorio wwwroot, pero sólo se ocupa de las peticiones JSP y Tomcat, como cuando nos sufijo para el tiempo gif, Nginx visión dinámica por defecto de la solicitud actual a presentar declaraciones wwwroot ir de aquí es, por supuesto, un archivo estático con Nginx el mismo servidor, podemos también en otro servidor, y luego configurar un proxy inverso y balanceo de carga a través del pasado, como, siempre que averiguar los procesos más básicos, un montón de configuración es muy sencilla, además de volver localtion es en realidad un habitual expresión, es muy flexible y
hacia adelante de proxy
Adelante medio servidor proxy está ubicado entre el cliente y el servidor de origen (servidor de origen), con el fin de obtener el contenido del servidor de origen, el cliente transmite una petición al proxy y especifique el destino (servidor de origen), y luego enviada al agente servidor de origen el contenido de la solicitud y obtener de vuelta al cliente. El cliente puede utilizar el proxy de reenvío. Cuando tenga que poner su servidor como un servidor proxy, puede ser logrado con un Nginx hacia adelante proxy, pero no Nginx tiene un problema, entonces simplemente no ser compatible con HTTPS, aunque he estado a Baidu hacia adelante HTTPS configuración de proxy, pero al final todavía no puede encontrar el agente, por supuesto, podría ser mala configuración, así que espero que hay que saber de la manera correcta para explicar el mensaje de los compañeros.
8.8.8.8 114.114.114.114 Resolver;
servidor {
resolver_timeout 5S,
el escuchar 81;
access_log E: wwwrootproxy.access.log;
el error_log E: wwwrootproxy.error.log;
UBICACIÓN / {
PROXY_PASS HTTP: // h la s t anfitrión REQUEST_URI;
}
}
Resolver está dispuesto servidor DNS hacia adelante proxy, el escuchar un puerto proxy de avance configurado para utilizar el número de puerto en el servidor ip + es decir, por encima del tapón superior o otros agentes para el agente.

Publicado 29 artículos originales · ganado elogios 0 · Vistas 588

Supongo que te gusta

Origin blog.csdn.net/drrui520/article/details/105165384
Recomendado
Clasificación