Você quer dominar os segredos do desenvolvimento de grandes modelos? Você está ansioso para obter experiência prática? Se você tem entusiasmo e expectativas em seu coração, então o Workshop especialmente elaborado no WAVE SUMMIT 2023 será o seu ponto de partida para o conhecimento!
Este workshop se concentra no desenvolvimento de IA e em aplicações de grandes modelos, convidando excelentes engenheiros de software de IA e especialistas em produtos para compartilhar suas experiências técnicas e levar cada participante a ter uma compreensão profunda dos mais recentes desenvolvimentos em IA. Aqui, você pode aprender métodos exclusivos para se tornar proficiente no desenvolvimento de IA e dominar tecnologias-chave para aplicações de modelos grandes. O WAVE SUMMIT 2023Workshop fornecerá oportunidades únicas de aprendizagem, comunicação e exploração para ajudá-lo a acelerar o desenvolvimento e a aplicação da tecnologia de IA.
Detalhes do curso
Prática de processo completo de desenvolvimento e implantação de aplicativos de modelo grande
Tempo de atividade
13h00-13h45
Local do evento
Oficina de área de exposição
Atividades
O centro de aplicativos AI Studio é uma plataforma de exibição de experiência de efeito de modelo. Os desenvolvedores podem implantar o modelo em um aplicativo que pode ser experimentado diretamente por meio de operações simples de código. Na plataforma AI Studio, os desenvolvedores podem desenvolver aplicativos de modelos grandes de uma só vez. A plataforma AI Studio cobre recursos de conteúdo de modelo em todo o campo de IA. Ela pode entrar no ambiente de desenvolvimento on-line com um clique. Possui forte suporte de poder de computação na nuvem e suporta a implantação direta de modelos em aplicativos para experiência visual on-line. Neste workshop, o gerente de produto do AI Studio irá levá-lo de 0 a 1 para entender todo o processo de introdução ao desenvolvimento de aplicativos de grandes modelos e construção de aplicativos inovadores.
-
Introdução ao desenvolvimento de projetos do AI Studio
-
Desenvolvimento de projeto baseado em AI Studio SDK e kit open source Flying Paddle
-
Desenvolvimento e implantação de interface de aplicativo baseada em Gradio
Experiência prática: experiência de aplicação selecionada pelo AI Studio
Operação a bordo:
-
Crie um novo projeto do AI Studio
-
Instale rapidamente o SDK do AI Studio e o kit de modelo de remo voador
-
notebook para desenvolver rapidamente encadeamento de prompts e inferência de modelo
-
Desenvolvimento e depuração de interface baseada em Gradio
-
Implantação de aplicativos
Apresentação do palestrante
Xiong Siyan
Gerente de produto do Baidu Flying Paddle AI Studio
Shi Yixin
Gerente de produto Baidu Flying Paddle
Prática de desenvolvimento de modelos grandes de código zero do Al Studio
Tempo de atividade
15h40-16h25
Local do evento
Oficina de área de exposição
Atividades
A comunidade de modelos grandes do AI Studio foi lançada recentemente. Na grande comunidade de modelos, comunique-se em tempo real com muitos entusiastas de grandes modelos, experimente e produza aplicativos relacionados a grandes modelos. Ao mesmo tempo, os desenvolvedores podem criar aplicativos de modelo grande em apenas três etapas simples. Nesse processo, não há necessidade de ter uma base de codificação. Contanto que você tenha ideias e dados relevantes, você pode criar aplicativos "sem dor". Neste workshop, o gerente de produto do AI Studio apresentará a comunidade de modelos grandes e demonstrará no local como criar um aplicativo de diálogo generativo baseado no modelo grande Wenxin.
-
Introdução à comunidade de modelos grandes do AI Studio
-
Paradigma Avançado de Desenvolvimento de Solicitações
-
Erros comuns em curiosidades e dramatizações e como lidar com eles
Experiência prática: experiência da comunidade AI Studio
Operação a bordo:
-
Crie rapidamente aplicativos nativos de IA
-
Início rápido do projeto imediato
-
Otimização iterativa de efeitos de aplicação
-
Pré-processamento e montagem de dados
-
Armadilhas e tratamentos comuns
Apresentação do palestrante
Xiong Siyan
Gerente de produto do Baidu Flying Paddle AI Studio
Shi Yixin
Gerente de produto Baidu Flying Paddle
Experiência prática com ferramentas de desenvolvimento de IA de voz – prática de código NVIDIA NeMo
Tempo de atividade
13h00-13h45
Local do evento
Subfórum "Junte-se ao Flying Paddle para acelerar a inovação"
Atividades
NVIDIA NeMo é uma biblioteca de ferramentas de código aberto para a construção de aplicativos de IA conversacionais. Ele usa dados de texto de fala como entrada e usa inteligência artificial e modelos de processamento de linguagem natural para compreender a semântica, realizando assim a conversão mútua de conteúdo de fala e texto. O kit de ferramentas NeMo pode ser usado para construir soluções de conversação para interação de voz e texto entre humanos e máquinas e pode ser usado para construir cenários de aplicativos como assistentes de voz inteligentes, robôs de bate-papo, tradução de voz inteligente, casas inteligentes controladas por voz e interação por comando de voz para carros sem motorista. Este evento se concentrará em como usar o NeMo para treinar um modelo de IA de voz personalizado e também fornecerá experiência prática na implementação de inferência de modelo de IA de voz no dispositivo de computação de ponta Jetson NX.
-
Introdução ao NVIDIA NeMo
-
Construindo um conjunto de dados de fala para NeMo
-
Usando NeMo para treinar o método do modelo de reconhecimento de fala ASR
-
Usando NeMo para treinar o método do modelo de síntese de fala TTS
Experiência prática:
implementação de inferência de modelo de IA de voz no dispositivo de computação de ponta Jetson NX
Operação a bordo :
-
Usando Jetson NX como plataforma de hardware experimental
-
Usando o Jupyter Lab como ferramenta de desenvolvimento experimental
-
Conexão de rede remota on-line correspondente à porta IP para fazer login
-
Experiência prática com a prática do código NeMo
Apresentação do palestrante
Yipeng Li Li Yipeng
Gerente da comunidade de desenvolvedores empresariais da NVIDIA
Ele tem muitos anos de experiência em modelagem de análise de dados e desenvolvimento de processamento de linguagem natural de inteligência artificial. Ele tem rica experiência prática e insights nas áreas de tecnologias de IA conversacional, como reconhecimento automático de fala, processamento de linguagem natural e síntese de fala. Ele desenvolveu um sistema inteligente de perguntas e respostas baseado na extração de entidades em documentos jurídicos, financeiros e de seguros, e um sistema de recuperação inteligente para documentos de pesquisa científica baseado na extração de conhecimento da PNL e no estabelecimento do gráfico de conhecimento KG.
Prática de uso do mecanismo de inferência de alta velocidade LLM na CPU Intel® Xeon®
Tempo de atividade
13h00-13h45
Local do evento
Subfórum "Treinamento Integrado de Talentos na Indústria e na Educação"
Atividades
xFasterTransformer é um mecanismo de inferência de modelo de linguagem grande (LLM) altamente otimizado para a plataforma de CPU Intel Xeon. É compatível com formatos de modelo convencionais, como huggingface e NVIDIA FT. Ele suporta inferência de OPT, LLAMA, ChatGLM, Falcon e outros modelos convencionais de linguagem grande em formatos de dados FP16/BF16/INT8. Ele pode fazer uso completo dos recursos de hardware em a plataforma de CPU Xeon para aceleração. e tem boa escalabilidade entre nós. Este evento apresentará a arquitetura central e a implementação técnica do xFasterTransformer, demonstrará seu excelente desempenho de inferência na plataforma Intel Xeon SPR e fornecerá experiência prática sobre como usar o xFasterTransformer para acelerar cálculos de inferência de modelos grandes na plataforma Xeon CPU.
-
Introdução à arquitetura e implementação do xFasterTransformer
-
Introdução à plataforma de hardware Intel SPR/HBM
Experiência computacional: Implementando operações de inferência de alta velocidade em um modelo grande da plataforma CPU em um servidor SPR-HBM remoto
Operação prática: Intel Xeon SPR-HBM remoto é a plataforma de hardware experimental, experiência prática usando xFasterTransformer para acelerar a prática de inferência LLM
Apresentação do palestrante
Meng Chen
Engenheiro de software sênior de IA da Intel
Envolvido em pesquisa e desenvolvimento nas áreas de estruturas de computação de aprendizagem profunda e computação de alto desempenho, e possui profundo acúmulo de conhecimento em IA. Como colaborador do PaddlePaddle, ele possui vasta experiência prática no desenvolvimento e otimização de desempenho de treinamento distribuído e inferência.
Dicas gentis
-
As vagas no local são limitadas, por isso é recomendável chegar com 5 a 10 minutos de antecedência.
-
Por favor, traga seu laptop para o local. Se a bateria for curta, é recomendável trazer um carregador.
-
Por favor, registre uma conta do Flying Paddle AI Studio com antecedência e preencha suas informações pessoais.
cronograma do curso workshop
Digitalize o código QR acima para se registrar e começar a usar o aplicativo nativo de IA imediatamente após a chegada. Vamos abrir juntos o futuro da IA e explorar as infinitas possibilidades de grandes modelos. Aguardamos ansiosamente a sua chegada, iniciando sua jornada de IA e compartilhando a festa do conhecimento e da inovação!