16. Учебное пособие по TensorFlow — распределенные вычисления

В этой главе основное внимание будет уделено тому, как начать использовать распределенный TensorFlow. Разработан, чтобы помочь разработчикам понять основные концепции распределенного TF, такие как серверы TF. Мы будем использовать Jupyter Notebook для оценки распределенного TensorFlow. Ниже приведены шаги по реализации распределенных вычислений с использованием TensorFlow.

Шаг 1 — Импортируйте необходимые модули для распределенных вычислений.

import tensorflow as tf

Шаг 2 — Создайте кластер TensorFlow с одним узлом. Сделайте этот узел ответственным за задачу под названием «рабочий» и он будет работать на локальном хосте: 2222.

cluster_spec = tf.train.ClusterSpec({'worker' : ['localhost:2222']})
server = tf.train.Server(cluster_spec)
server.target

Приведенный выше скрипт выдает следующий результат:

'grpc://localhost:2222'
The server is currently running.

Шаг 3. Выполните следующую команду для расчета конфигурации сервера и соответствующих сеансов.

server.server_def

Приведенная выше команда выдает следующий результат:

cluster {
   job {
      name: "worker"
      tasks {
         value: "localhost:2222"
      }
   }
}
job_nam

Guess you like

Origin blog.csdn.net/Knowledgebase/article/details/133459474