Docker のインストール方法については、サーバーのオペレーティング システムによって異なるため、詳しくは説明しません。
公式インストールチュートリアル: https://docs.docker.com/get-docker/
tensorflow_server を使用していますが、docker には torch_server がないようです
最初の一歩:
tensorflow/提供イメージのプル
docker pull tensorflow/serving
ステップ2:
tensorflow 公式ウェアハウスをクローンし、そこでトレーニングされたモデルを使用します
使用したモデルはsaved_model_half_plus_two_cpuで、モデルを2で割って2を足すという比較的単純なモデルです。
git clone --depth=1 https://github.com/tensorflow/serving
– Depth=1: 1 は、最新のコミットのみをクローンすることを意味します
。 ステップ 3:
tensorflow/サービス提供コンテナを作成する
ここでのコードは実際の状況に基づいている必要があり、モデルのパスを変更する必要があることに注意してください。
docker run -t -d -p 8501:8501 -v /home/docker/tensorflow/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu/:/models/half_plus_two -e MODEL_NAME=half_plus_two --name plustwo tensorflow/serving
-d はバックグラウンドで実行することを意味します
-p はポート 8051 を指定します
-v の後のファイル パス。コロンの前はサーバー内のクローン モデルのファイル パスです。コロンの後ろは修正されています。
–name コンテナにエイリアスを付けます。または、エイリアスを付ける必要はありません。
4番目のステップ:
curlコマンドを使用した予測
curl -d '{"instances": [1.0, 2.0, 5.0]}' -X POST http://localhost:8501/v1/models/half_plus_two:predict
-d は、結果を予測するPOST メソッドを指定することを意味します。
{
"predictions": [2.5, 3.0, 4.5
]
}
これらの -d -t およびその他のコマンドが理解できない場合は、調べてください。他の人が私よりもわかりやすく説明しています。