Configuración del entorno de aprendizaje profundo: tensorflow-gpu + keras
- Entorno: Windows10 + GTX1060 + cuda10.1 + cudnn7.6.5 + tensorflow-gpu2.3.1 + keras2.4.3
- Use miniconda para configurar este conjunto de entornos, use Anaconda para configurar los mismos pasos
- Los siguientes problemas deben resolverse a continuación:
(1) Hay muchas versiones de cuda, entonces, ¿qué versión deberíamos elegir para descargar?
(2) Hay muchas versiones de cudnn, ¿cómo elegir?
(3) ¿Qué versión de tensorflow-gpu deberíamos elegir instalar?
(4) ¿Qué versión de keras deberíamos elegir instalar?
Paso 1: configurar el entorno operativo de la GPU de la tarjeta gráfica
-
Si queremos que nuestra computadora pueda ejecutar programas de aprendizaje profundo en la tarjeta gráfica (mi computadora es una tarjeta gráfica NVIDIA, no he configurado tarjetas gráficas AMD), debe instalar CUDA en su computadora (CUDA es un paralelo universal lanzado por Arquitectura de computación NVIDIA, que permite a la GPU resolver problemas informáticos complejos) y cudnn (cudnn es una biblioteca de aceleración de GPU para redes neuronales profundas). Secuencia de instalación: instale cuda primero, luego cudnn.
-
Para descargar cuda y cudnn, vaya al sitio web oficial de NVIDIA para descargar, siempre que tenga que registrarse para obtener una cuenta de NVIDIA. dirección de descarga cuda de cada versión , dirección de descarga cudnn
-
Hay muchas versiones de cuda, entonces, ¿qué versión deberíamos elegir para descargar? Esto está relacionado con la versión de nuestro controlador de tarjeta gráfica.
(1) El primer paso: Verifique la versión de nuestro controlador de tarjeta gráfica, hay dos formas.
Método 1: Ver a través del panel de control de NVIDIA
Método 2: a través de la línea de comando cmd
nvidia-smi
(2) De acuerdo con el controlador de la versión de la tarjeta gráfica, vaya al siguiente sitio web para encontrar la versión cuda que se puede instalar: la versión cuda correspondiente a la tarjeta gráfica . La siguiente es la tabla de correspondencia (tiempo de captura de pantalla: 2 de febrero de 2021).
(3) Descargue CUDA en el sitio web oficial ( descargue la dirección de cada versión de cuda ) e instálelo. Después de la instalación, ingrese el siguiente comando en cmd para verificar si la instalación es exitosa
nvcc -V
Además, se observa que la ubicación de instalación predeterminada de cuda es :, C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1
esta ubicación se utilizará al instalar cudnn inmediatamente.
(4) Hasta ahora, hemos instalado cuda, pero no podemos ejecutar la biblioteca de aprendizaje profundo en la GPU. A continuación, instalaremos la biblioteca cudnn especialmente desarrollada por NVIDIA para el aprendizaje profundo. Primero descargue cudnn en el sitio web oficial ( dirección de descarga de cudnn ), aquí hay otra pregunta involucrada: Hay muchas versiones de cudnn, ¿cómo elegir? La versión de cudnn depende de la versión de CUDA recién instalada, podemos ir al siguiente sitio web para encontrar la versión de cudnn que se puede instalar: Correspondencia entre cudnn y CUDA . La siguiente es la relación correspondiente (tiempo de captura de pantalla: 2 de febrero de 2021).
(5) Después de descargar cudnn, este es un paquete comprimido. Después de la descompresión, obtendrá una carpeta, ingrese a la carpeta, seleccione todo el contenido dentro y copie. La siguiente figura muestra el contenido que debe copiarse después de la descompresión:
(6) Abra la ubicación de instalación de CUDA (ubicación predeterminada:) C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1
y copie el contenido copiado en la sección (5) a la ubicación de instalación de CUDA. Si hay un conflicto de archivos, elija sobrescribir el archivo original. Hasta ahora, el entorno operativo de la GPU de la tarjeta gráfica está configurado.
Paso 2: configurar tensorflow-gpu y keras
-
Aquí utilizamos la herramienta de línea de comando miniconda (o Anaconda) para configurar un conjunto de entorno virtual. Para saber cómo configurar el uso de esta línea de comando, consulte: Instalación y uso del software Anaconda .
-
La instalación de la versión de tensorflow-gpu (no necesita instalar la versión de cpu de tensorflow por adelantado) requiere el soporte de CUDA y cudnn. Hay muchas versiones de tensorflow-gpu, entonces surge el mismo problema ahora, qué versión de tensorflow-gpu ¿deberíamos elegir instalar? Podemos comprobar la correspondencia entre tensorflow-gpu y CUDA y cudnn en este sitio web: La correspondencia entre tensorflow-gpu y CUDA y cudnn . La siguiente es la tabla de correspondencia (tiempo de captura de pantalla: 2 de febrero de 2021).
Acerca del soporte de MSVC:
- Después de resolver la correspondencia de versiones entre tensorflow-gpu y CUDA y cudnn, ¿hay algún problema ahora? ¿Qué versión de keras deberíamos elegir instalar? Aquí keras official no da la correspondencia entre keras y tensorflow-gpu (al menos no lo encontré), pero puedes consultar la correspondencia dada por el siguiente sitio web: La correspondencia entre keras y tensorflow . Las instalaciones que no sigan esta relación de correspondencia pueden tener éxito o no. La siguiente es la tabla de correspondencia (tiempo de captura de pantalla: 2 de febrero de 2021).
Use la demostración de conda para instalar tensorflow-gpu + keras
1 Configurar fuente de espejo doméstico conda
- Este paso también se puede omitir, este paso es para acelerar la descarga
C:\Users\WXX
Cree un nuevo .condarc
archivo en la carpeta de usuario personal (ubicación correspondiente en Mi PC :) y agregue el siguiente contenido al archivo:
channels:
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/bioconda/
show_channel_urls: true
URL de referencia: Acerca de la solución de CondaHTTPError usando anaconda
Además, también puede ser reemplazado por una fuente de la Universidad de Ciencia y Tecnología de China.
2 Configurar la fuente de espejo doméstico pip
- Este paso también se puede omitir, este paso es para acelerar la descarga
C:\Users\WXX
Cree una nueva carpeta pip en la carpeta de usuario personal (ubicación correspondiente en Mi PC :), cree un nuevo pip.ini en la carpeta y agregue el siguiente contenido al archivo:
[global]
index-url = https://pypi.mirrors.ustc.edu.cn/simple/
[install]
use-mirrors =true
mirrors =https://pypi.mirrors.ustc.edu.cn/simple/
trusted-host =pypi.mirrors.ustc.edu.cn/simple/
URL de referencia: aceleración de descarga de pip
3 Entorno de instalación
conda create -n kr243 python=3.6.5
conda activate kr243
pip install tensorflow-gpu==2.3.1
pip install keras==2.4.3
4 Resultados de la prueba
Utilice el siguiente código para probar si se puede utilizar la aceleración de GPU:
# coding=utf-8
import tensorflow as tf
print(tf.__version__)
print('GPU', tf.test.is_gpu_available())