nginxの負荷分散デモ

要件:

tomcat1:192.168.2.149:8081

TOMCAT2:192.168.2.149:8082

nginxの:192.168.2.111:80

二つのTomcatサーバポートは8081,8082あり、webappsディレクトリは、<H1> 8081 </ H1>、<H1> 8082 </ H1>書かれたのindex.htmlファイルを持ちテストプロジェクトを、持っています

nginxの負荷分散、ユーザーの訪問は「http://192.168.2.111:80/test」、要求は二つのサーバの平均8081および8082に転送されるとき

ステップ:

2つのTomcatに1.直接アクセス、成功したスタートを確実にTomcatは、通常の訪問することができ

2. [変更nginx.confファイル、再起動nginxの設定発効を確保します

[ルート@ CentOSの〜] viの/usr/local/nginx/conf/nginx.conf 
[ルート@ CentOSの〜] は/ usr / local / nginxの/ sbinに/ nginxの-sリロード

Nginx80ポートアクセス要求は、myseverに転送されます(名前カスタム)

3.ブラウザアクセスhttp://192.168.2.111/test/、各要求は、2のTomcatの平均に転送されます


デフォルトのポーリングポリシー、つまりアクセス8081--8082--8081--8082を使用して、簡単な負荷分散を実現するために、上記の...

いくつかのnginxの配分戦略が用意されています。

ポーリング(デフォルト)

各要求は個別にサーバーがダウンしている場合、自動的に削除、別のサーバーに年代順に割り当てられました。

2.weight

それは1に、デフォルト値を重みを表し、より高い重みは、クライアントが割り当てられます。

3.ip_hash

各要求はすべての訪問者は、固定サーバーセッションで問題を解決できるように、訪問のIPハッシュ結果に従って割り当てられます。

4.fair(サードパーティ、サードパーティ製のモジュールをインストールする必要があります)

サーバーの割り当て要求の応答時間、短い応答時間優先配分することによって。

おすすめ

転載: www.cnblogs.com/ddstudy/p/12560557.html