Docker を使用して深層学習モデルをデプロイする小さなデモ

Docker のインストール方法については、サーバーのオペレーティング システムによって異なるため、詳しくは説明しません。

公式インストールチュートリアル: https://docs.docker.com/get-docker/

tensorflow_server を使用していますが、docker には torch_server がないようです

最初の一歩:

tensorflow/提供イメージのプル

docker pull tensorflow/serving

ステップ2:

tensorflow 公式ウェアハウスをクローンし、そこでトレーニングされたモデルを使用します

使用したモデルはsaved_model_half_plus_two_cpuで、モデルを2で割って2を足すという比較的単純なモデルです。

git clone --depth=1 https://github.com/tensorflow/serving

– Depth=1: 1 は、最新のコミットのみをクローンすることを意味します
。 ステップ 3:

tensorflow/サービス提供コンテナを作成する

ここでのコードは実際の状況に基づいている必要があり、モデルのパスを変更する必要があることに注意してください。

docker run -t -d -p 8501:8501 -v /home/docker/tensorflow/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu/:/models/half_plus_two -e MODEL_NAME=half_plus_two --name plustwo tensorflow/serving

-d はバックグラウンドで実行することを意味します
-p はポート 8051 を指定します

-v の後のファイル パス。コロンの前はサーバー内のクローン モデルのファイル パスです。コロンの後ろは修正されています。

–name コンテナにエイリアスを付けます。または、エイリアスを付ける必要はありません。

4番目のステップ:

curlコマンドを使用した予測

curl -d '{"instances": [1.0, 2.0, 5.0]}' -X POST http://localhost:8501/v1/models/half_plus_two:predict


-d は、結果を予測するPOST メソッドを指定することを意味します。

{
    "predictions": [2.5, 3.0, 4.5
    ]
}

これらの -d -t およびその他のコマンドが理解できない場合は、調べてください。他の人が私よりもわかりやすく説明しています。

おすすめ

転載: blog.csdn.net/CSDN_Lrcx/article/details/117431278