分散Tensorflow
一枚のカード(GPU)とその他の
マルチレベルマルチカード(分散)
分散自己実現
API:
図1に示すように、すべてのタスクがクラスタを説明するため、説明はすべてのタスクに対して同じである、tf.train.ClusterSpecを作成
2、tf.train.Serverは、ps、労働者を作成し、適切なコンピューティングタスクを実行します
クラスタ= tf.train.ClusterSpec({ "PS":ps_spec、 "作業者":worker_spec})
ps_spec = [ "ps0.example.com:port","ps2.example.com:port"]对应/仕事:PS /タスク:0.1
worker_spec = [ "worker0.example.com:port"、...] /仕事:労働者/タスク:10
tf.train.Server(server_orcluster、JOB_NAME、task_index =なし、protocol_None、設定=なし、起動していない=真)创建服务
- server_or_cluster:クラスタ説明
- JOB_NAME:タスクタイプの名前
- task_index:タスクの数
- 属性:このサーバへの目標、目標リターンtfSession接続
- 方法:参加()パラメータサーバ、サーバ待機閉じるタスクパラメータを受信するまで
tf.device(device_name_or_function)
- 指定されたデバイスまたはデバイスの機能を選択
- デバイス名の場合
- 指定されたデバイス
- 例如 “/job:worker/tsak:0/cpu:0
- 機能の場合
- tf.train.replica_device_setter(worker_device = worker_device、クラスタ=クラスタ)
- 処置:別のデバイス上の初期化動作を調整することにより、この機能
- worker_device:为指定设备、「ジョブ/労働/タスク:0 / CPU:0" または "/仕事:労働者/タスク:0 / GPU:0"
- クラスタ:クラスタオブジェクト説明
- tf.deviceで使用する()するように異なるデバイスの仕事上の異なるノード