_1_は深いニューラルネットワークを学習_4_分散Tensorflowを

分散Tensorflow

一枚のカード(GPU)とその他の

マルチレベルマルチカード(分散)

分散自己実現

API:

図1に示すように、すべてのタスクがクラスタを説明するため、説明はすべてのタスクに対して同じである、tf.train.ClusterSpecを作成

2、tf.train.Serverは、ps、労働者を作成し、適切なコンピューティングタスクを実行します

  • クラスタ= tf.train.ClusterSpec({ "PS":ps_spec、 "作業者":worker_spec})

    ps_spec = [ "ps0.example.com:port","ps2.example.com:port"]对应/仕事:PS /タスク:0.1

    worker_spec = [ "worker0.example.com:port"、...] /仕事:労働者/タスク:10

  • tf.train.Server(server_orcluster、JOB_NAME、task_index =なし、protocol_None、設定=なし、起動していない=真)创建服务

    • server_or_cluster:クラスタ説明
    • JOB_NAME:タスクタイプの名前
    • task_index:タスクの数
    • 属性:このサーバへの目標、目標リターンtfSession接続
    • 方法:参加()パラメータサーバ、サーバ待機閉じるタスクパラメータを受信するまで
  • tf.device(device_name_or_function)

    • 指定されたデバイスまたはデバイスの機能を選択
    • デバイス名の場合
      • 指定されたデバイス
      • 例如 “/job:worker/tsak:0/cpu:0
    • 機能の場合
      • tf.train.replica_device_setter(worker_device = worker_device、クラスタ=クラスタ)
      • 処置:別のデバイス上の初期化動作を調整することにより、この機能
      • worker_device:为指定设备、「ジョブ/労働/タスク:0 / CPU:0" または "/仕事:労働者/タスク:0 / GPU:0"
      • クラスタ:クラスタオブジェクト説明
    • tf.deviceで使用する()するように異なるデバイスの仕事上の異なるノード

おすすめ

転載: www.cnblogs.com/Dean0731/p/11815986.html