ビューkerasは、得られたGPUを認識します
kerasのインポートKとしてバックエンド )(K.tensorflow_backend._get_available_gpus
[28]アウト:
[ '/ジョブ:ローカルホスト/レプリカ:0 /タスク:0 /デバイス:GPU:0']
より詳細なデバイス情報を見ます
tensorflow.python.client インポートdevice_libの インポートのTFとしてtensorflow プリント(device_lib.list_local_devices()) プリント(tf.test.is_built_with_cuda())
出力:
[名前: "/デバイス:CPU:0"
DEVICE_TYPE: "CPU" のmemory_limit:268435456 局所{ } 化身:9443078288448539683 、名称: "/デバイス:XLA_CPU:0" DEVICE_TYPE: "XLA_CPU" のmemory_limit:17179869184 局所{ } 化身:14589028880023685106 physical_device_desc: "デバイス:XLA_CPU装置" 、名: "/デバイス:XLA_GPU:0" DEVICE_TYPE: "XLA_GPU" のmemory_limit:17179869184 局所{ } 化身:12944586764183584921 physical_device_desc: "デバイス:XLA_GPUデバイス" 、名"/デバイス:GPU:0" DEVICE_TYPE: "GPU" のmemory_limit。8365150044 局所{ BUS_ID:1 リンク{ } } 化身:8725535454902618392 physical_device_desc: "デバイス:0、名前:テスラP100-PCIE-16ギガバイト、PCIバス番号:0000:00:04.0、計算能力:6.0" ] はTrue
ビューのGPUが使用されています
インポートタスクフォースとしてtensorflow プリント(TF __version__ ) の場合:tf.test.gpu_device_name() 印刷(' デフォルトのGPUデバイス:{} ' .format(tf.test.gpu_device_name())) 他: プリント(「GPUのバージョンをインストールしてくださいTFの" )
出力:
1.13.1 デフォルトのGPUデバイス:/デバイス:GPU:0