nginxはロードバランシングを実行して、1つのインターフェイスをマルチマシンマルチGPUカードサービスの外部に公開する問題を解決します

アイデア:複数のGPUサービスインターフェイス->負荷分散のためのngxin- > 1つを外部に公開します。

例として、2枚のカードを備えた1台のマシンを取り上げます。ここで、gunicornは1枚のカードのマルチプロセスサービスを展開します。この記事を参照してください。

1.nginx負荷分散ミラーを作成します

1.Dockerfieを作成します

FROM nginx:1.13.3
COPY ./ /
RUN mkdir /app
COPY /nginx.conf /etc/nginx/nginx.conf

2.nginx.confの詳細


#user  nobody;
worker_processes  1;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

#pid        logs/nginx.pid;


events {
    worker_connections  1024;
}


http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;

    #gzip  on;

	#bx----------------------
	upstream algoserver{
	    server 192.168.102.200:10009;
	}
	
    server {
        listen       8082;
        server_name  localhost;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {
            #root   html;
            #index  index.html index.htm;
			#bx--------------------------------
			proxy_pass http://algoserver;
			proxy_set_header Host $host;
        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}

        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }


    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}


    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;

    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

}

ここで、サーバー192.168.102.200:10009;
        サーバー192.168.102.200:10010;

これらは、GPUによって開始された2つのサービスであり、現在は192.168.102.200:8082にマップされています。

3.ミラーを構築する

docker build -t nginx/express:0.1 .

2.負荷分散のためにコンテナを起動します

上記のポート8082は10016にマップされており、ユーザーは10016を介して10009および10010GPUサービスを呼び出すことができます。

docker run -it -p 10016:8082 -v /home/fanzonghao/red_detection/software/nginx.conf:/etc/nginx/nginx.conf nginx/express:0.1

 

おすすめ

転載: blog.csdn.net/fanzonghao/article/details/108388074