¡Explore lo desconocido y cree aplicaciones nativas de IA de inmediato! Taller WAVE SUMMIT te espera para que participes

¿Quieres dominar los secretos del desarrollo de modelos grandes? ¿Estás ansioso por tener la oportunidad de practicar la operación? Si su corazón está lleno de entusiasmo y anticipación, ¡entonces el Taller creado especialmente por WAVE SUMMIT 2023 será su punto de partida para el conocimiento! Este taller se enfoca en el desarrollo de IA y la aplicación de modelos a gran escala, e invita a destacados ingenieros de software de IA y expertos en productos para compartir su experiencia técnica y guiar a cada participante a comprender los últimos desarrollos en IA. Aquí, puede aprender el método único de competencia en el desarrollo de IA y dominar las tecnologías clave de la aplicación de modelos a gran escala. WAVE SUMMIT 2023Workshop le brindará oportunidades únicas de aprendizaje, comunicación y exploración para ayudarlo a acelerar el desarrollo y la aplicación de la tecnología de IA.

detalles del curso

Práctica de proceso completo de desarrollo e implementación de aplicaciones de modelos grandes

tiempo de actividad

13:00-13:45

Lugar del evento

Área de exposición Taller

Actividades

El centro de aplicaciones de AI Studio es una plataforma de visualización de la experiencia del efecto del modelo. Los desarrolladores pueden implementar el modelo como una aplicación que se puede experimentar directamente a través de operaciones de código simples. En la plataforma AI ​​Studio, los desarrolladores pueden desarrollar aplicaciones de modelos a gran escala en una sola parada. La plataforma AI ​​Studio cubre los recursos de contenido del modelo en todo el campo de la IA y puede ingresar al entorno de desarrollo en línea con un solo clic. Es compatible con una poderosa potencia informática en la nube y admite la implementación en línea de modelos como aplicaciones para la experiencia visual. En este taller, el gerente de producto de AI ​​Studio lo guiará de 0 a 1 para comprender todo el proceso de comenzar con el desarrollo de aplicaciones de modelos grandes y crear aplicaciones innovadoras.

  • Introducción al desarrollo de proyectos de AI Studio
  • Desarrollo de proyecto basado en AI Studio SDK y kit open source de paddle volador
  • Desarrollo e implementación de interfaces de aplicaciones basadas en Gradio

Experiencia práctica: experiencia de aplicación seleccionada por AI Studio
Operación práctica:

  • Proyecto AI Studio nuevo
  • Instale rápidamente AI Studio SDK y el kit de modelo de paleta voladora
  • Cuaderno de desarrollo rápido de encadenamiento de impulsos y razonamiento de modelos.
  • Desarrollo y depuración de interfaces basadas en gradio
  • despliegue de aplicaciones

Introducción del orador

imagen

Xiong Siyan

Gerente de producto de Baidu Flying Paddle AI Studio

imagen

shi yixin

Gerente de Producto de Pádel de Baidu

Práctica de desarrollo de modelos grandes de código cero de Al Studio

tiempo de actividad

15:40-16:25

Lugar del evento

Área de exposición Taller

Actividades

La comunidad de modelos grandes de AI Studio se lanzó recientemente. En la comunidad de modelos grandes, comuníquese con muchos entusiastas de modelos grandes en tiempo real, experimente y produzca aplicaciones relacionadas con modelos grandes. Al mismo tiempo, los desarrolladores pueden crear aplicaciones modelo a gran escala en solo tres sencillos pasos. En este proceso, no es necesario tener una base de código, siempre que tengan ideas y datos relevantes, pueden crear aplicaciones "sin dolor". . En este taller, el gerente de producto de AI Studio presentará la comunidad de modelos grandes y demostrará cómo crear una aplicación de diálogo generativo basada en el modelo grande de Wenxin.

  • Introducción a la comunidad de modelos grandes de AI Studio
  • Paradigmas de desarrollo de impulsos avanzados
  • Errores comunes y cómo lidiar con ellos en trivia y juegos de rol

Experiencia práctica: experiencia de la comunidad de AI Studio

Operación en la máquina:

  • Cree rápidamente aplicaciones nativas de IA
  • Inicio rápido de ingeniería rápida
  • Optimización iterativa del efecto de la aplicación
  • Preprocesamiento y montaje de datos
  • Errores comunes y cómo lidiar con ellos

Introducción del orador

imagen

Xiong Siyan

Gerente de producto de Baidu Flying Paddle AI Studio

imagen

shi yixin

Gerente de Producto de Pádel de Baidu

Experiencia práctica con la herramienta de desarrollo de IA de voz: combate de código NVIDIA NeMo

tiempo de actividad

13:00-13:45

Lugar del evento

Subforo "Únete a Flying Paddle Innovation Acceleration"

Actividades

NVIDIA NeMo es una biblioteca de herramientas de código abierto para crear aplicaciones de inteligencia artificial conversacionales. Utiliza datos de voz y texto como entrada, y utiliza inteligencia artificial y modelos de procesamiento de lenguaje natural para comprender la semántica, a fin de realizar la conversión mutua entre voz y texto. El kit de herramientas NeMo se puede usar para crear una solución conversacional para la interacción de voz y texto entre humanos y máquinas, y se puede usar para crear escenarios de aplicaciones como asistentes de voz inteligentes, robots de chat, traducción de voz inteligente, hogares inteligentes controlados por voz y automóviles sin conductor. interacción de comandos de voz. Este evento se centrará en cómo usar NeMo para entrenar un modelo de IA de voz personalizado y, al mismo tiempo, experimentar la inferencia del modelo de IA de voz en el dispositivo informático Jetson NX.

  • Presentamos NVIDIA NeMo
  • Cree un conjunto de datos de voz para NeMo
  • Uso de NeMo para entrenar el método del modelo de reconocimiento de voz ASR
  • Uso de NeMo para entrenar el método del modelo de síntesis de voz TTS

Experiencia práctica:
Implementación de la inferencia del modelo de IA de voz en dispositivos informáticos de borde Jetson NX

Operación en la máquina :

  • Uso de Jetson NX como plataforma de hardware experimental
  • Utilice Jupyter Lab como herramienta de desarrollo de experimentos
  • La conexión de red remota en línea corresponde al puerto IP para iniciar sesión
  • Experiencia práctica con el código NeMo

Introducción del orador

imagen

Yipeng Li

Administrador de la comunidad de desarrolladores empresariales de NVIDIA

Tiene muchos años de modelado de análisis de datos, experiencia en desarrollo de procesamiento de lenguaje natural de inteligencia artificial. Tiene una rica experiencia práctica y conocimientos en el campo de la tecnología de inteligencia artificial conversacional, como el reconocimiento automático de voz, el procesamiento del lenguaje natural y la síntesis de voz. Ha desarrollado un sistema inteligente de respuesta a preguntas basado en la extracción de entidades en documentos legales, financieros y de seguros.Ha desarrollado un sistema de recuperación inteligente para documentos de investigación científica basado en la extracción de conocimiento de PNL y el establecimiento de gráficos de conocimiento KG.

Práctica de uso del motor de inferencia de alta velocidad LLM en CPU Intel® Xeon®

tiempo de actividad

13:00-13:45

Lugar del evento

Subforo "Integración Industria-Educación Talento Coeducación"

Actividades

xFasterTransformer es un motor de inferencia de modelo de lenguaje grande (LLM) altamente optimizado para la plataforma de CPU Intel Xeon. Es compatible con los formatos de modelos principales, como huggingface y NVIDIA FT, es compatible con OPT, LLAMA, ChatGLM, Falcon y otros modelos de inferencia de lenguaje grande principales en formatos de datos FP16/BF16/INT8, y puede hacer un uso completo de las funciones de hardware en la CPU Xeon. plataforma para la aceleración y tiene una buena escalabilidad entre nodos. Este evento presentará la arquitectura central y la implementación técnica de xFasterTransformer, demostrará su excelente rendimiento de inferencia en la plataforma Intel Xeon SPR y experimentará cómo usar xFasterTransformer para acelerar los cálculos de inferencia de modelos a gran escala en la plataforma de CPU Xeon.

  • Introducción a la arquitectura e implementación de xFasterTransformer
  • Introducción a la plataforma de hardware Intel SPR/HBM

Experiencia práctica: realice inferencias de alta velocidad en un modelo de plataforma de CPU grande en un servidor SPR-HBM remoto Experiencia práctica: use xFasterTransformer para acelerar la inferencia LLM con un Intel Xeon SPR-HBM remoto como plataforma de hardware experimental.

Introducción del orador

imagen

meng chen

Ingeniero sénior de software de IA de Intel

Involucrado en la investigación y el desarrollo del marco informático de aprendizaje profundo y la informática de alto rendimiento, con una profunda acumulación de conocimiento de IA. Como colaborador de PaddlePaddle, tiene una rica experiencia práctica en el desarrollo y la optimización del rendimiento del entrenamiento y el razonamiento distribuidos.

Consejos amables

  • El espacio es limitado, por lo que se recomienda llegar con 5-10 minutos de anticipación.
  • Por favor traiga su computadora portátil al lugar del evento.Si la vida útil de la batería es corta, se recomienda traer un cargador.
  • Registre una cuenta Flying Paddle AI Studio y complete su información personal por adelantado.

horario del taller

inserte la descripción de la imagen aquí

Siga el sitio web oficial de WAVE SUMMIT 2023 y los canales de redes sociales para obtener la información más reciente sobre la cumbre y el aviso de registro. Comencemos juntos el futuro de la IA y exploremos las infinitas posibilidades de los modelos grandes. ¡Esperamos su llegada, comience su viaje de IA y comparta la fiesta del conocimiento y la innovación!

Supongo que te gusta

Origin blog.csdn.net/PaddlePaddle/article/details/132229655
Recomendado
Clasificación