GPUの使用されているkerasまたはtensorflowを表示する方法

 

ビューkerasは、得られたGPUを認識します

kerasのインポートKとしてバックエンド
)(K.tensorflow_backend._get_available_gpus

[28]アウト:

[ '/ジョブ:ローカルホスト/レプリカ:0 /タスク:0 /デバイス:GPU:0']

より詳細なデバイス情報を見ます

tensorflow.python.client インポートdevice_libの
 インポートのTFとしてtensorflow 

プリント(device_lib.list_local_devices())
 プリント(tf.test.is_built_with_cuda())

出力:

  [名前: "/デバイス:CPU:0"
DEVICE_TYPE: "CPU" 
のmemory_limit:268435456 
局所{ 
} 
化身:9443078288448539683 
、名称: "/デバイス:XLA_CPU:0" 
DEVICE_TYPE: "XLA_CPU" 
のmemory_limit:17179869184 
局所{ 
} 
化身:14589028880023685106 
physical_device_desc: "デバイス:XLA_CPU装置" 名: "/デバイス:XLA_GPU:0" 
DEVICE_TYPE: "XLA_GPU" 
のmemory_limit:17179869184 
局所{ 
} 
化身:12944586764183584921 
physical_device_desc: "デバイス:XLA_GPUデバイス" 
、名"/デバイス:GPU:0" 
DEVICE_TYPE: "GPU" 
のmemory_limit。8365150044 
局所{ 
  BUS_ID:1
  リンク{
  } 
} 
化身:8725535454902618392 
physical_device_desc: "デバイス:0、名前:テスラP100-PCIE-16ギガバイト、PCIバス番号:0000:00:04.0、計算能力:6.0" 
] はTrue
 
ビューのGPUが使用されています
インポートタスクフォースとしてtensorflow
 プリント(TF __version__ の場合:tf.test.gpu_device_name()
     印刷' デフォルトのGPUデバイス:{} ' .format(tf.test.gpu_device_name()))
 プリントGPUのバージョンをインストールしてくださいTFの" 
 
 

出力: 

1.13.1 
デフォルトのGPUデバイス:/デバイス:GPU:0
 

 

おすすめ

転載: www.cnblogs.com/mashuai-191/p/11028448.html