[Comparta los productos secos de la conferencia NVIDIA GTC 23] El progreso de la computación acelerada con inteligencia artificial y la computación científica

[Compartir productos secos NVIDIA GTC] Avances en computación acelerada para inteligencia artificial y computación científica (Avances en computación acelerada para inteligencia artificial y computación científica) enlace de video del informe

Perspectivas de desarrollo del centro de datos


Tres tendencias están dando forma al futuro del centro de datos

  1. Restricciones energéticas. Los centros de datos consumen el 2% de los recursos del mundo, y los nuevos enfoques requieren reducir el consumo de energía mientras se mantiene el rendimiento y la confiabilidad.
  2. Acelerar la informática. El auge de la informática acelerada está cambiando los centros de datos. Con el final de la Ley de Moore, las CPU tradicionales ya no satisfacen las demandas informáticas o de recursos, y el consumo de energía y los costos aumentan de manera desproporcionada.
  3. Revolución de la IA. La IA está cambiando la forma en que vivimos y trabajamos en todos los aspectos,Modelo básico de IATrayendo muchos nuevos productos, aplicaciones y servicios, automatización y personalización.

La computación acelerada requiere una optimización completa de software y hardware, y solo se puede realizar en un dominio de aplicación específico a la vez (genética molecular, procesamiento sísmico, química cuántica). NVIDIA ha invertido en computación acelerada durante casi 20 años. En la última década, ha aumentado el rendimiento de las aplicaciones HPC en 500 veces, pero esto no es solo un problema de rendimiento, sino más de sostenibilidad .

Por ejemplo, las 500 supercomputadoras más importantes del mundo requieren cantidades asombrosas de energía y consumo de energía. Sin embargo, mediante el uso de la tecnología de aceleración, NVIDIA ha podido reducir significativamente el consumo de energía y mejorar la eficiencia energética.

Introducción del nuevo producto


plataforma informática

Para las tareas de IA, es muy importante comprender los modelos subyacentes.Estos modelos preentrenados tienen muchas habilidades generales y son la base para construir varias aplicaciones.

ChatGPT fue un momento decisivo que centró la atención del mundo en Al.

Nvidia lanzó un conjunto de pre-entrenadosGenerar modelo Al, las empresas pueden personalizar e implementar estos modelos para sus aplicaciones. Los modelos GPT son adecuados para realizar diversas tareas, como el análisis de opiniones para el resumen de generación de contenido.

Los modelos comunitarios, como BloomZ, admiten aplicaciones en 101 idiomas, incluida la traducción, la comprensión del lenguaje natural y la respuesta a preguntas . Con estos modelos, las empresas pueden acelerar la adopción de la generación de inteligencia artificial para la comprensión del lenguaje y la respuesta a preguntas. Con estos modelos, también pueden personalizar los modelos de varias maneras para que coincidan con su dominio y objetivos comerciales, como se muestra en la figura a continuación.

inserte la descripción de la imagen aquí
Hopper GPU
Las GPU de arquitectura Hopper están en el corazón de las plataformas informáticas actuales de Nvidia para resolver cargas de trabajo de Al y HPC de última generación. La GPU H100 presenta cinco innovaciones revolucionarias, así como NVLink y Tensor Cores más rápidos y potentes. Hopper también introdujo nuevas instrucciones DPX para acelerar las aplicaciones de programación dinámica. Golden Suite es una herramienta que se utiliza para medir el progreso del trabajo de Nvidia en HPC, IA y ciencia de datos. H100 se ha puesto en producción por completo y ha sido adoptado por muchos proveedores de servicios en la nube.

H100
BlueField-3
BlueField-3 se encuentra actualmente en plena producción. Reduce la huella del servidor y reduce el consumo de energía al descargar núcleos de CPU. También permite el aislamiento de las aplicaciones del plano de control y gestión, lo que reduce la superficie de ataque. Bluefield es un chip especialmente diseñado para descargar y acelerar la virtualización, el almacenamiento en red y el software de seguridad. BlueField-3 puede optimizar la computación científica y su núcleo puede descargar y acelerar las operaciones colectivas de MPI, lo que permite que la competencia y la comunicación ejecuten recursos en paralelo.

La herramienta de rendimiento
Rescale acaba de lanzar una función llamada Perfiles de rendimiento. A través de esta capacidad, los usuarios pueden obtener una visibilidad detallada de sus cargas de trabajo y rendimiento en varios niveles de cómputo, arquitectura y escala, como se muestra en la figura a continuación. Los colores representan diferentes sistemas. El rojo representa el sistema de CPU X86 y el azul y el verde representan los sistemas acelerados por GPU. El gráfico muestra que el sistema acelerado por GPU Nvidia A100 ofrece el mejor rendimiento y eficiencia energética, al mismo tiempo que ofrece la potencia y el costo más bajos.

inserte la descripción de la imagen aquí

Esta parte es la que más me interesa, porque el tema que estoy haciendo recientemente es sobre herramientas de análisis de rendimiento . Esta función sigue siendo muy poderosa, pero creo que no debería ser el resultado obtenido en la operación real del programa, debería ser una simulación de la operación en diferentes sistemas. Es posible que aprendamos más sobre esto más adelante.

plataforma de razonamiento

Además del entrenamiento de inteligencia artificial, H100 se está utilizando para la plataforma de inferencia Nvidia. Con la adopción continua de inteligencia artificial generativa, se requieren soluciones informáticas más avanzadas para manejar cargas de trabajo de inferencia cada vez más complejas.

  1. Triton es un software de código abierto para servicios de inferencia de marcos múltiples para GPU y CPU. El TMS coincidente (Triton Management System) es un modelo de razonamiento automatizado eficiente en recursos
  2. TensorRT es un SDK de inferencia de aprendizaje profundo de alto rendimiento para NVIDIA GPU (esto debe ser familiar para todos) TensorRT lanzó recientemente GPU de inferencia de múltiples nodos para modelos de lenguaje grande basados ​​en GPT-3.

Lanzó dos nuevas GPU para diferentes tareas de inferencia

  1. Un caso de uso es la inferencia en contenido de video, donde Al se usó para comprender que el contenido de video es una transcripción de realidad aumentada e inferencia basada en el contenido mismo . La nueva GPU L4 está optimizada para la codificación de transferencia de video, la comprensión del contenido de video y AR.
  2. Otro caso de uso es la IA generativa, y la IA generativa está impulsando la explosión de la IA en casos de uso diario de imágenes, videos, texto e incluso generación 3D . La GPU L40 puede ofrecer más de siete veces el rendimiento en cargas de trabajo como la generación de imágenes de difusión estable

inserte la descripción de la imagen aquí

Finalmente, presente el razonamiento de Grace Hopper
: en comparación con los sistemas tradicionales, Grace Hopper proporciona más de 7 veces el ancho de banda y la capacidad de memoria. Esto permite el mayor rendimiento de inferencia para grandes cargas de trabajo de memoria, como bases de datos vectoriales y sistemas de recomendación, mientras que la CPU Grace está diseñada para combinarse con GPU Nvidia para una escala masiva y es mejor en cuanto a eficiencia energética y movimiento de bases de datos.

diseño de chips

La computación acelerada también juega un papel importante en el diseño del propio chip.

La fotolitografía es un proceso crítico en la fabricación de chips. Uno de los desafíos es calcular la máscara, que es una tarea muy difícil. Simular los patrones de interferencia de la luz en los chips modernos requiere decenas de miles de millones de horas de CPU cada año. anunciamos el lanzamientoCu Lito, una biblioteca que lleva la computación acelerada a la litografía computacional, lo que permite a los líderes de semiconductores como TSMC acelerar la fabricación de chips de próxima generación. La comparación con el cálculo del método de CPU tradicional se muestra en la siguiente figura

El cálculo de CPU y GPU enmascara la comparación que requiere mucho tiempo

Plataforma cuántica

La computación cuántica también es un área de gran potencial, pero existen algunos desafíos importantes que deben superarse para que sea una realidad. Uno de los mayores obstáculos es la necesidad de construir algoritmos cuánticos que puedan explotar propiedades cuánticas como la superposición y el entrelazamiento. Se necesitan nuevos flujos de trabajo para permitir que los desarrolladores cuánticos comprendan los desafíos físicos y de informática de la computación qubit.

Nvidia anunció la plataforma Nvidia Quantum , que consta de tres partes.

  1. cuQuantum Un conjunto de bibliotecas aceleradas para el desarrollo de algoritmos cuánticos
  2. CUDA Quantum plataforma de computación híbrida cuántica-clásica, que integra programación heterogénea
  3. DGX Quantum System para construir aplicaciones de computación cuántica y algoritmos cuánticos clásicos

inserte la descripción de la imagen aquí
La plataforma Nvidia Quantum resuelve múltiples problemas, como los algoritmos para la cooperación y el control de la corrección de errores, el diseño de QPU, el desarrollo de aplicaciones híbridas y la estrecha integración con las GPU, y actualmente trabaja en estrecha colaboración con varios proveedores.

Resumir


Este informe proporciona una descripción general aproximada de algunas de las ofertas recientes de Nvidia con funciones potentes. Brindan capacidades incomparables y serán la productividad de la era de la supercomputación de IA. Nvidia es un líder bien merecido en el campo de la aceleración de GPU, y las personas de las industrias relacionadas deben realizar un seguimiento de las actualizaciones de productos y tecnología.

¡Vivimos en una era de oportunidades, y las posibilidades que podemos lograr a través de la tecnología solo están limitadas por la imaginación de las personas!

Supongo que te gusta

Origin blog.csdn.net/hug_clone/article/details/129746621
Recomendado
Clasificación