PytorchマルチカードトレーニングでGPUメモリが解放されないのはなぜですか

      PyTorchを使用して、データ読み取り用のマルチスレッド(スレッド)(DataLoader)をセットアップします。実際、これは偽のマルチスレッドです。彼はマルチスレッド作業をシミュレートするためにN個のサブプロセス(PIDが接続されている)を開いているので、プログラムが終了または途中です。メインプロセスを強制終了すると、子プロセスのGPUメモリが解放されないため、手動で1つずつ強制終了する必要があります。

おすすめ

転載: blog.csdn.net/hxxjxw/article/details/121107486