最後に、サーバの負荷分散とクライアントの負荷は、それを明確にバランスをとります

ロードバランシングのコンセプト

単一サーバの性能限界を指すは、サーバクラスタによって横方向にシステムのスループットと性能を高めるために達成されます。我々はNgnixロードバランシングで、否定しない、Ngnix負荷がロッドファクトリの実装、1のバランスをとる!しかし、唯一のNgnixを返信する場合はインタビューインタビュアーが、多くの場合、ネジでプラント全体を巻き込むことができるようにしたいときだと思うワン、いくつかは、それはまだインタビューを通じて炉を借りているかもしれないと思います。

 

 

最後に、サーバの負荷分散とクライアントの負荷は、それを明確にバランスをとります

サーバロードバランシング

サーバーの負荷分散は、我々は通常、いくつかの一般的に使用する方法についてがあり、ロード・バランシングがアップストリーム配信サーバでサービスを行うことを意味言うことです。

  • DNS名前解決のロードバランシング、私たちは、ドメイン名を指す複数のIPアドレスを想定し、要求、サーバーのDNS名前解決のマシンが1で、ドメイン名をIPアドレスに変換するドメイン名:Nマッピング変換の負荷がでバランスをとります。DNSサーバは、単純な負荷分散アルゴリズムを提供していますが、サーバーに障害が発生した場合、DNSサーバーを通知する障害は、現在のIPを削除しています。
  • プロキシ負荷分散リバース;プロキシのリバースプロキシサーバーの値のみ、プロキシサーバは要求、ロードバランシングアルゴリズムを受け入れ、要求がプロキシサーバとクライアントに返されたプロキシサーバへのバックエンドサービスに戻り、バックエンドサーバーに転送されます。リバースプロキシサーバーの利点は、トラブルシューティングの面でプロキシとより柔軟なリバース、デュアルNICは、実サーバのネットワーク、セキュリティがDNSドメイン名解決のロードバランシングに比べ、優れているシールド使用して、ロードバランシングのサポートをバックエンドサーバーとクライアントを分離することです規模アルゴリズム。現在、非常に広く使用されています。もちろん、リバースプロキシはまた、単一障害点として、多くの問題を検討するために、クラスタの展開を必要とします。
  • IP負荷分散、我々はすべてのHTTPリバースプロキシ層にその仕事を知って、それ自身のオーバーヘッドが比較的大きい場合、パフォーマンスに一定の影響を与え、LVS-NAT負荷分散がデータを受け入れるために、それを変更することで衛生的トランスポート層パケットの宛先アドレスの一種でありますロードバランシングを実現するための方法。IPに焦点を当てLinux2.6.x後に建てられIPVSは、負荷分散を実現するために使用されるので、LinuxのIP負荷分散には、広く使用されています。LVS-DRは、それが直接、パケットのMACアドレスを変更するとLVS-NATが横柄以上、データリンク層で動作します。IPトンネリングメカニズムに基づいてLVS-TUN--転送要求は、スケジューラは、サーバに転送カプセル化されたIPパケットを受信し、サーバは、スケジューラによって、データ、ロード・バランシングを返します。このように、ネットワーク間のスケジューリングをサポートしています。LVS-TUNは、同様のを持っている地域、全体で持つことができるので、要約すると、LVS-DRとLVS-TUNは、お使いのネット​​ワーク展開のニーズに応じて、そこから選択をするためにどのような適当な非対称応答であり、Webサーバに要求しますニーズの種類、あなたはLVS-TUNを選択する必要があります。

 

最後に、サーバの負荷分散とクライアントの負荷は、それを明確にバランスをとります

クライアント・ロード・バランシング

サーバーの負荷分散を比較すると、クライアント・ロード・バランシングは、非常に少数の概念ですが、知識のバランスをとるインタビュー負荷に尋ねたが、意図的に候補者の知識の幅広とき。クライアント・ロード・バランシングは、リボンに分布フレーム組立バネ雲に定義されています。私たちは時に要求複数のサービスを開始するには、高い確率で、春・クラウドの分散フレームワークを使用して実行したとき、この以上のサービス、この要求は、サービスを利用したことにより、リボンの戦略は、クライアントの負荷を決定する方法でありますバランスの取れました。春クラウド分散フレームワークのクライアント・ロード・バランシングでは、それに@LoadBalancedコメントを追加して、開発者に対して透過的です。クライアントの負荷分散とサーバ負荷バランシングのコア差自体、サービスのリストでは、クライアントによって維持され、クライアント負荷分散サービスのリストは、サーバ負荷分散サービスのリストだけでは、中間サービスによって維持します。

上記の知識を理解することによって、我々は、負荷分散のいくつかのより包括的な理解をすることができ、ダウン私は単純にインタビュアーと共通のロード・バランシング・アルゴリズムとのチャットになります。

  • 通常、このように少ない使用して、サービスによって実行するためのランダム、ランダムに選択します。
  • 回転、負荷分散のデフォルトの実装、処理要求キュー。
  • 加重ローテーションは、サーバのパフォーマンスの種類によって、高プロファイルのために、低負荷サーバは、より高い重量、各サーバの均圧を割り当てます。
  • アドレスハッシュ、アドレスマッピングサーバモジュロスケジューリングを要求しているクライアントによって得られたハッシュ値。
  • リンクの最小数は、必ずしも圧力均等化方法は、サーバへの接続の最小数に基づいて、要求をも等化、そのような要求のバックログのようなパラメータの数と同様に、要求は現在の最小圧力サーバに割り当てられています。
  • 他のいくつかの方法。

おすすめ

転載: www.cnblogs.com/gucb/p/11237765.html
おすすめ