¿Cómo elegir la profundidad del aprendizaje de la GPU?

¿Cómo elegir la profundidad del aprendizaje de la GPU?

Estudio a fondo en el campo de la informática existe una gran demanda, en cierta medida lo es, la decisión de la GPU para elegir a la experiencia de aprendizaje profundo será fundamentalmente. Por lo tanto, optar por comprar el GPU derecha es una decisión muy importante. Así en 2020, cómo elegir la GPU derecha que? Este artículo incorpora criterios de selección GPU existentes y evaluación de la información en Internet, con la esperanza de hacer referencia a su decisión de compra.

1 ¿Qué hace que una GPU más rápido que la otra GPU?

 Hay algunos indicadores de resultados fiables se pueden juzgar como la experiencia de un pueblo. Los siguientes son algunos de los criterios de prioridad para diferentes profundidades de la arquitectura de aprendizaje:

Convolucionales redes y transformadores:  Tensor los conductores> Flops> memoria de ancho de banda> 16 bits de capacidad de

las redes periódicas:  la memoria de ancho de banda> capacidad de 16 bits> Tensor Cores> Flops

2如何选择NVIDIA / AMD / Google

 la biblioteca estándar de NVIDIA permite establecer la primera biblioteca en profundidad aprender CUDA en muy fácilmente. La ventaja temprana junto con NVIDIA mediante un fuerte apoyo de la comunidad que si está utilizando NVIDIA GPU, usted puede obtener fácilmente apoyo en caso de problemas. Pero ahora la política que sólo NVIDIA Tesla GPU CUDA se puede utilizar en el centro de datos, mientras que no se permite la GTX o RTX, pero en comparación con la GTX Tesla y RTX no hay ventajas reales, el precio es tan alto como 10 veces.


AMD es poderosa, pero carece de apoyo suficiente. AMD GPU con capacidades de computación de 16 bits, pero todavía hay lagunas en comparación con el kernel de NVIDIA GPU-tensor.
Google TPU con muy rentable. Desde TPU que tiene infraestructura paralela complejo, así que si una pluralidad de nube TPU (equivalente a 4 GPU), TPU que tiene una velocidad mayor que la ventaja GPU. Así que, por ahora, TPU convolución es más adecuado para el entrenamiento de la red neuronal.

Más de tres paralelo acelerado GPU

 red de convolución y una red de bucle paralelo es muy fácil, especialmente en el caso en que un solo ordenador, o 4 GPU. TensorFlow y PyTorch también son muy adecuados para la recursión paralelo. Sin embargo, la red totalmente conectada comprende un transformador que incluye generalmente pobre desempeño en términos de paralelismo de datos, la necesidad de algoritmos más avanzados para acelerar. Si se ejecuta en la GPU múltiple, primero debe tratar de correr en una GPU, comparar las dos velocidades. Desde una sola GPU puede hacer casi todas las tareas, por lo tanto, en la compra de múltiples GPU , mejor paralelismo (como PCIe número de canal de la calidad) no es tan importante .


4 Evaluación del Desempeño

 

1 ) a partir de Tim Dettmers evaluación coste-eficacia

[1]

https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/

 

 

  Convolución de red ( CNN ), la red recursiva ( RNN ) y transformador normalizado rendimiento / número de costo (cuanto más alto mejor). RTX 2060 La rentabilidad es Tesla V100 de 5 o más veces. Longitud inferior a 100 secuencias cortas, Palabra RNN expresaron biLSTM . Uso PyTorch 1.0.1 y CUDA 10 de referencia.

 

A partir de estos datos, RTX 2060 que tiene un más rentable que la RTX 2070, RTX 2080 o RTX 2080 Ti. La razón es que el uso de Tensor núcleos de computación de 16 bits es la capacidad de tener algo más que el núcleo de tensor Núcleos mucho más valioso.
2 ) de la Lambda evaluación

 [2,3]

https://lambdalabs.com/blog/best-gpu-tensorflow-2080-ti-vs-v100-vs-titan-v-vs-1080-ti-benchmark/https://lambdalabs.com/blog/choosing- a-GPU-para-deep-aprendizaje /

 

 

 La aceleración GPU costo total promedio / sistema

 

 rendimiento de la GPU, el procesamiento de imágenes por segundo

 Con Quadro RTX 8000 la imagen de referencia para la formación Quadro RTX 8000 como modelo de rendimiento
3) de conocimientos casi @Aero "en línea" en las GPU Comentarios

 

[4]

https://www.zhihu.com/question/299434830/answer/1010987691
usamos la mayoría es probable que Google Colab , después de todo, incluso el TPU libre elección

 

 

 Pero ahora los miembros:

 

 

 

 

 

moderador libre si K80 , un poco débil, puede ejecutar un modelo relativamente simple, la probabilidad asignada a la T4 , no se podría asignar a la imperial europea P100 .

Pago será capaz de asegurar una T4 o P100, 10 dólares al mes, dijo que sólo los EE.UU..
Colab después de todo, es Google, entonces primero debe ser capaz de conseguir incluso en google, y tienen una red estable, es probable que se elimina si la re-formación, todo el país no es una experiencia buena.
El siguiente es Baidu AI Estudio :

tiempo muy conciencia cuando V100 entrega gratuita, antes de que una gran cantidad de personas con su propio equipo tensorflow, pero ahora no está permitido, y el pytorch tensorflow medido no al desgaste, tiene que usar paddlepaddle. A continuación, los hábitos de paddlepaddle el usuario puede elegir esto, otros no encajan.

 

 

 

GPU pero parece que no es suficiente, el día ha estado recordando el pico, true para que antes de las 22:00.
En el extranjero también vast.ai:

 

 

5 recomendaciones

 1) la recomendación de Tim Dettmers

  • Mejor GPU general: RTX 2070 GPU
  • Evitar el uso de: Cualquier Tesla; cualquier Quadro; ningún Fundadores Edition; Titan RTX, Titan V, Titan XP
  • Eficiente pero caro: RTX 2070
  • Eficientes y de bajo costo: RTX 2060, 1060 GTX (6 GB)
  • Asequible: 1060 GTX (6 GB)
  • Bajo precio: 1050 GTX Ti (4 GB). O: CPU (prototipo) + AWS / TPU (entrenamiento), o Colab.
  • Adecuado Kaggle juego: RTX 2070
  • Para los investigadores de visión artificial: 2080 GTX Ti, si el entrenamiento de red muy grande, se recomienda el uso de RTX Titanes

2) las sugerencias de la Lambda

A partir de febrero de 2020, la GPU puede entrenar todo lenguaje Sota y modelo de la imagen:

  • RTX 8000: 48 GB VRAM
  • RTX 6000: 24 GB VRAM
  • Titan RTX: 24 GB VRAM

Recomendaciones específicas:

  • RTX 2060 (6 GB): para tiempo libre explorando la profundidad del aprendizaje.
  • RTX 2070 o 2080 (8 GB): adecuado para el aprendizaje profundo de los investigadores profesionales, y un presupuesto de 4-6k
  • RTX 2080 Ti (11 GB): adecuado para el aprendizaje profundo de los investigadores profesionales, y su presupuesto de alrededor de GPU 8-9k. RTX 2080 Ti 40% más rápido que el RTX 2080.
  • Titan RTX RTX y Quadro 6000 (24 GB): SOTA modelos de uso generalizado, pero no lo suficiente para que los investigadores RTX presupuesto de 8000.
  • Quadro RTX 8000 (48 GB): el precio es relativamente alto, pero de alto rendimiento, inversión de futuro.

 

 

Supongo que te gusta

Origin www.cnblogs.com/wujianming-110117/p/12594314.html
Recomendado
Clasificación