Bem-estar! Aula prática do Baidu Workshop, crie aplicativos nativos de IA instantaneamente! |IDCF

Você quer dominar os segredos do desenvolvimento de grandes modelos? Você está ansioso para obter experiência prática? Se você tem entusiasmo e expectativas em seu coração, então o Workshop especialmente elaborado no WAVE SUMMIT 2023 será o seu ponto de partida para o conhecimento!

Este workshop se concentra no desenvolvimento de IA e em aplicações de grandes modelos, convidando excelentes engenheiros de software de IA e especialistas em produtos para compartilhar suas experiências técnicas e levar cada participante a ter uma compreensão profunda dos mais recentes desenvolvimentos em IA. Aqui, você pode aprender métodos exclusivos para se tornar proficiente no desenvolvimento de IA e dominar tecnologias-chave para aplicações de modelos grandes. O WAVE SUMMIT 2023Workshop fornecerá oportunidades únicas de aprendizagem, comunicação e exploração para ajudá-lo a acelerar o desenvolvimento e a aplicação da tecnologia de IA.

foto


Detalhes do curso

foto

Prática de processo completo de desenvolvimento e implantação de aplicativos de modelo grande

Tempo de atividade

13h00-13h45

Local do evento

Oficina de área de exposição

Atividades

O centro de aplicativos AI Studio é uma plataforma de exibição de experiência de efeito de modelo. Os desenvolvedores podem implantar o modelo em um aplicativo que pode ser experimentado diretamente por meio de operações simples de código. Na plataforma AI Studio, os desenvolvedores podem desenvolver aplicativos de modelos grandes de uma só vez. A plataforma AI Studio cobre recursos de conteúdo de modelo em todo o campo de IA. Ela pode entrar no ambiente de desenvolvimento on-line com um clique. Possui forte suporte de poder de computação na nuvem e suporta a implantação direta de modelos em aplicativos para experiência visual on-line. Neste workshop, o gerente de produto do AI Studio irá levá-lo de 0 a 1 para entender todo o processo de introdução ao desenvolvimento de aplicativos de grandes modelos e construção de aplicativos inovadores.

  • Introdução ao desenvolvimento de projetos do AI Studio

  • Desenvolvimento de projeto baseado em AI Studio SDK e kit open source Flying Paddle

  • Desenvolvimento e implantação de interface de aplicativo baseada em Gradio

Experiência prática: experiência de aplicação selecionada pelo AI Studio

Operação a bordo:

  • Crie um novo projeto do AI Studio

  • Instale rapidamente o SDK do AI Studio e o kit de modelo de remo voador

  • notebook para desenvolver rapidamente encadeamento de prompts e inferência de modelo

  • Desenvolvimento e depuração de interface baseada em Gradio

  • Implantação de aplicativos

Apresentação do palestrante

foto

Xiong Siyan

Gerente de produto do Baidu Flying Paddle AI Studio

foto

Shi Yixin

Gerente de produto Baidu Flying Paddle
 

foto

Prática de desenvolvimento de modelos grandes de código zero do Al Studio

Tempo de atividade

15h40-16h25

Local do evento

Oficina de área de exposição

Atividades

A comunidade de modelos grandes do AI Studio foi lançada recentemente. Na grande comunidade de modelos, comunique-se em tempo real com muitos entusiastas de grandes modelos, experimente e produza aplicativos relacionados a grandes modelos. Ao mesmo tempo, os desenvolvedores podem criar aplicativos de modelo grande em apenas três etapas simples. Nesse processo, não há necessidade de ter uma base de codificação. Contanto que você tenha ideias e dados relevantes, você pode criar aplicativos "sem dor". Neste workshop, o gerente de produto do AI Studio apresentará a comunidade de modelos grandes e demonstrará no local como criar um aplicativo de diálogo generativo baseado no modelo grande Wenxin.

  • Introdução à comunidade de modelos grandes do AI Studio

  • Paradigma Avançado de Desenvolvimento de Solicitações

  • Erros comuns em curiosidades e dramatizações e como lidar com eles

Experiência prática: experiência da comunidade AI Studio

Operação a bordo:

  • Crie rapidamente aplicativos nativos de IA

  • Início rápido do projeto imediato

  • Otimização iterativa de efeitos de aplicação

  • Pré-processamento e montagem de dados

  • Armadilhas e tratamentos comuns

Apresentação do palestrante

foto

Xiong Siyan

Gerente de produto do Baidu Flying Paddle AI Studio


 

foto


Shi Yixin

Gerente de produto Baidu Flying Paddle

foto

Experiência prática com ferramentas de desenvolvimento de IA de voz – prática de código NVIDIA NeMo

Tempo de atividade

13h00-13h45

Local do evento

Subfórum "Junte-se ao Flying Paddle para acelerar a inovação"

Atividades

NVIDIA NeMo é uma biblioteca de ferramentas de código aberto para a construção de aplicativos de IA conversacionais. Ele usa dados de texto de fala como entrada e usa inteligência artificial e modelos de processamento de linguagem natural para compreender a semântica, realizando assim a conversão mútua de conteúdo de fala e texto. O kit de ferramentas NeMo pode ser usado para construir soluções de conversação para interação de voz e texto entre humanos e máquinas e pode ser usado para construir cenários de aplicativos como assistentes de voz inteligentes, robôs de bate-papo, tradução de voz inteligente, casas inteligentes controladas por voz e interação por comando de voz para carros sem motorista. Este evento se concentrará em como usar o NeMo para treinar um modelo de IA de voz personalizado e também fornecerá experiência prática na implementação de inferência de modelo de IA de voz no dispositivo de computação de ponta Jetson NX.

  • Introdução ao NVIDIA NeMo

  • Construindo um conjunto de dados de fala para NeMo

  • Usando NeMo para treinar o método do modelo de reconhecimento de fala ASR

  • Usando NeMo para treinar o método do modelo de síntese de fala TTS

Experiência prática:
implementação de inferência de modelo de IA de voz no dispositivo de computação de ponta Jetson NX

Operação a bordo :

  • Usando Jetson NX como plataforma de hardware experimental

  • Usando o Jupyter Lab como ferramenta de desenvolvimento experimental

  • Conexão de rede remota on-line correspondente à porta IP para fazer login

  • Experiência prática com a prática do código NeMo

Apresentação do palestrante

foto

Yipeng Li Li Yipeng

Gerente da comunidade de desenvolvedores empresariais da NVIDIA

Ele tem muitos anos de experiência em modelagem de análise de dados e desenvolvimento de processamento de linguagem natural de inteligência artificial. Ele tem rica experiência prática e insights nas áreas de tecnologias de IA conversacional, como reconhecimento automático de fala, processamento de linguagem natural e síntese de fala. Ele desenvolveu um sistema inteligente de perguntas e respostas baseado na extração de entidades em documentos jurídicos, financeiros e de seguros, e um sistema de recuperação inteligente para documentos de pesquisa científica baseado na extração de conhecimento da PNL e no estabelecimento do gráfico de conhecimento KG.

foto

Prática de uso do mecanismo de inferência de alta velocidade LLM na CPU Intel® Xeon®

Tempo de atividade

13h00-13h45

Local do evento

Subfórum "Treinamento Integrado de Talentos na Indústria e na Educação"

Atividades

xFasterTransformer é um mecanismo de inferência de modelo de linguagem grande (LLM) altamente otimizado para a plataforma de CPU Intel Xeon. É compatível com formatos de modelo convencionais, como huggingface e NVIDIA FT. Ele suporta inferência de OPT, LLAMA, ChatGLM, Falcon e outros modelos convencionais de linguagem grande em formatos de dados FP16/BF16/INT8. Ele pode fazer uso completo dos recursos de hardware em a plataforma de CPU Xeon para aceleração. e tem boa escalabilidade entre nós. Este evento apresentará a arquitetura central e a implementação técnica do xFasterTransformer, demonstrará seu excelente desempenho de inferência na plataforma Intel Xeon SPR e fornecerá experiência prática sobre como usar o xFasterTransformer para acelerar cálculos de inferência de modelos grandes na plataforma Xeon CPU.

  • Introdução à arquitetura e implementação do xFasterTransformer

  • Introdução à plataforma de hardware Intel SPR/HBM

Experiência computacional: Implementando operações de inferência de alta velocidade em um modelo grande da plataforma CPU em um servidor SPR-HBM remoto

Operação prática: Intel Xeon SPR-HBM remoto é a plataforma de hardware experimental, experiência prática usando xFasterTransformer para acelerar a prática de inferência LLM

Apresentação do palestrante

foto

Meng Chen

 Engenheiro de software sênior de IA da Intel

Envolvido em pesquisa e desenvolvimento nas áreas de estruturas de computação de aprendizagem profunda e computação de alto desempenho, e possui profundo acúmulo de conhecimento em IA. Como colaborador do PaddlePaddle, ele possui vasta experiência prática no desenvolvimento e otimização de desempenho de treinamento distribuído e inferência.

foto

Dicas gentis

  • As vagas no local são limitadas, por isso é recomendável chegar com 5 a 10 minutos de antecedência.

  • Por favor, traga seu laptop para o local. Se a bateria for curta, é recomendável trazer um carregador.

  • Por favor, registre uma conta do Flying Paddle AI Studio com antecedência e preencha suas informações pessoais.

foto

cronograma do curso workshop

foto

Digitalize o código QR acima para se registrar e começar a usar o aplicativo nativo de IA imediatamente após a chegada. Vamos abrir juntos o futuro da IA ​​e explorar as infinitas possibilidades de grandes modelos. Aguardamos ansiosamente a sua chegada, iniciando sua jornada de IA e compartilhando a festa do conhecimento e da inovação!

Acho que você gosta

Origin blog.csdn.net/m0_69584846/article/details/132272419
Recomendado
Clasificación