Explore o desconhecido e crie aplicativos nativos de IA imediatamente! WAVE SUMMIT Workshop está esperando por você para participar

Você quer dominar os segredos do desenvolvimento de modelos grandes? Você está ansioso para ter a oportunidade de praticar a operação? Se o seu coração está cheio de entusiasmo e expectativa, o Workshop especialmente criado pelo WAVE SUMMIT 2023 será o seu ponto de partida para o conhecimento! Este workshop se concentra no desenvolvimento de IA e na aplicação de modelos em larga escala e convida engenheiros de software de IA e especialistas em produtos de destaque para compartilhar sua experiência técnica e levar cada participante a entender os desenvolvimentos mais recentes em IA. Aqui, você pode aprender o método exclusivo de proficiência no desenvolvimento de IA e dominar as principais tecnologias de aplicação de modelos em larga escala. O WAVE SUMMIT 2023Workshop fornecerá a você oportunidades únicas de aprendizado, comunicação e exploração para ajudá-lo a acelerar o desenvolvimento e a aplicação da tecnologia de IA.

detalhes do curso

Prática de processo completo de desenvolvimento e implantação de aplicativos de modelo grande

tempo de atividade

13:00-13:45

Local do evento

Oficina de área de exposição

Atividades

O AI Studio Application Center é uma plataforma de exibição de experiência de efeito de modelo. Os desenvolvedores podem implantar o modelo como um aplicativo que pode ser experimentado diretamente por meio de operações de código simples. Na plataforma AI Studio, os desenvolvedores podem desenvolver aplicativos de modelo em grande escala em uma única parada. A plataforma AI Studio abrange recursos de conteúdo de modelo em todo o campo de IA e pode entrar no ambiente de desenvolvimento online com um clique. É suportada por um poderoso poder de computação na nuvem e oferece suporte à implantação online de modelos como aplicativos para experiência visual. Neste workshop, o gerente de produto AI Studio levará você de 0 a 1 para entender todo o processo de introdução ao desenvolvimento de aplicativos de modelo grande e criar aplicativos inovadores.

  • Introdução ao desenvolvimento de projetos AI Studio
  • Desenvolvimento de projeto baseado em AI Studio SDK e kit open source de paddle voador
  • Desenvolvimento e implantação de interface de aplicativo baseada em Gradio

Experiência prática: experiência do aplicativo selecionado AI Studio
Operação prática:

  • AI Studio projeto novo
  • Instale rapidamente AI Studio SDK e kit de modelo de remo voador
  • Caderno de desenvolvimento rápido de encadeamento de prompts e raciocínio de modelo
  • Desenvolvimento de interface e depuração baseado em gradio
  • implantação de aplicativo

Apresentação do palestrante

foto

Xiong Siyan

Líder de produto Baidu Flying Paddle AI Studio

foto

Shi Yixin

Gerente de produto Baidu Paddle

Prática de desenvolvimento de modelo grande de código zero Al Studio

tempo de atividade

15h40-16h25

Local do evento

Oficina de área de exposição

Atividades

A comunidade de modelos grandes do AI Studio foi lançada recentemente. Na comunidade de modelos grandes, comunique-se com muitos entusiastas de modelos grandes em tempo real, experimente e produza aplicativos relacionados a modelos grandes. Ao mesmo tempo, os desenvolvedores podem criar aplicativos de modelo em grande escala em apenas três etapas simples. Nesse processo, não há necessidade de ter uma base de código, desde que tenham ideias e dados relevantes, eles podem criar aplicativos "sem dor" . Neste workshop, o gerente de produto do AI Studio apresentará a comunidade de modelos grandes e demonstrará como criar um aplicativo de diálogo generativo baseado no modelo grande Wenxin.

  • Introdução à comunidade de modelos grandes do AI Studio
  • Paradigmas Avançados de Desenvolvimento de Prompting
  • Erros comuns e como lidar com eles em trivia e role-playing

Experiência prática: experiência da comunidade AI Studio

Operação na máquina:

  • Crie rapidamente aplicativos nativos de IA
  • Prompt de início rápido de engenharia
  • Otimização iterativa do efeito do aplicativo
  • Pré-processamento e montagem de dados
  • Armadilhas comuns e como lidar com elas

Apresentação do palestrante

foto

Xiong Siyan

Líder de produto Baidu Flying Paddle AI Studio

foto

Shi Yixin

Gerente de produto Baidu Paddle

Experiência prática com a ferramenta de desenvolvimento de AI de voz - combate de código NVIDIA NeMo

tempo de atividade

13:00-13:45

Local do evento

Subfórum "Joining Flying Paddle Innovation Acceleration"

Atividades

NVIDIA NeMo é uma biblioteca de ferramentas de código aberto para criar aplicativos de inteligência artificial de conversação. Ele usa dados de fala e texto como entrada e usa inteligência artificial e modelos de processamento de linguagem natural para entender a semântica, de modo a realizar a conversão mútua entre fala e texto. O kit de ferramentas NeMo pode ser usado para criar uma solução de conversação para interação de voz e texto entre humanos e máquinas e pode ser usado para criar cenários de aplicativos, como assistentes de voz inteligentes, robôs de bate-papo, tradução de voz inteligente, casas inteligentes controladas por voz e carros sem motorista interação de comando de voz. Este evento se concentrará em como usar o NeMo para treinar um modelo de IA de voz personalizado e, ao mesmo tempo, experimentar a inferência do modelo de IA de voz no dispositivo de computação de borda Jetson NX.

  • Apresentando o NVIDIA NeMo
  • Crie um conjunto de dados de fala para o NeMo
  • Usando o NeMo para treinar o método de modelo de reconhecimento de fala ASR
  • Usando o NeMo para treinar o método do modelo de síntese de fala TTS

Experiência prática:
implementação de inferência de modelo AI de voz em dispositivos de computação de borda Jetson NX

Operação na máquina :

  • Usando o Jetson NX como plataforma de hardware experimental
  • Use o Jupyter Lab como uma ferramenta de desenvolvimento de experimentos
  • A conexão de rede remota on-line corresponde à porta IP para fazer login
  • Experiência prática com o código NeMo

Apresentação do palestrante

foto

Yipeng Li

Gerente da Comunidade de Desenvolvedores Corporativos NVIDIA

Tem muitos anos de modelagem de análise de dados, experiência em desenvolvimento de processamento de linguagem natural de inteligência artificial. Ele tem uma rica experiência prática e insights no campo da tecnologia de IA conversacional, como reconhecimento automático de fala, processamento de linguagem natural e síntese de fala. Ele desenvolveu um sistema inteligente de resposta a perguntas baseado na extração de entidades em documentos jurídicos, financeiros e de seguros.Ele desenvolveu um sistema de recuperação inteligente para documentos de pesquisa científica baseado na extração de conhecimento NLP e no estabelecimento de gráficos de conhecimento KG.

Prática de uso do mecanismo de inferência de alta velocidade LLM na CPU Intel® Xeon®

tempo de atividade

13:00-13:45

Local do evento

Subfórum "Coeducação de Talentos da Integração Indústria-Educação"

Atividades

O xFasterTransformer é um mecanismo de inferência de modelo de linguagem grande (LLM) altamente otimizado para a plataforma de CPU Intel Xeon. É compatível com os formatos de modelo convencionais, como huggingface e NVIDIA FT, suporta OPT, LLAMA, ChatGLM, Falcon e outros modelos de linguagem grande inferência em formatos de dados FP16/BF16/INT8 e pode fazer uso total dos recursos de hardware na CPU Xeon plataforma para aceleração e tem boa escalabilidade entre nós. Este evento apresentará a arquitetura principal e a implementação técnica do xFasterTransformer, demonstrará seu excelente desempenho de inferência na plataforma Intel Xeon SPR e experimentará como usar o xFasterTransformer para acelerar cálculos de inferência de modelo em grande escala na plataforma de CPU Xeon.

  • Introdução à arquitetura e implementação do xFasterTransformer
  • Introdução à plataforma de hardware Intel SPR/HBM

Experiência prática: realize inferência de alta velocidade em um grande modelo de plataforma de CPU em um servidor SPR-HBM remoto Experiência prática: use xFasterTransformer para acelerar a inferência LLM com um Intel Xeon SPR-HBM remoto como plataforma de hardware experimental.

Apresentação do palestrante

foto

Meng Chen

Engenheiro sênior de software de inteligência artificial da Intel

Envolvido na pesquisa e desenvolvimento de estruturas de computação de aprendizado profundo e computação de alto desempenho, com profundo acúmulo de conhecimento em IA. Como colaborador da PaddlePaddle, ele tem uma rica experiência prática no desenvolvimento e otimização de desempenho de raciocínio e treinamento distribuído.

dicas gentis

  • O espaço é limitado, por isso é recomendável chegar com 5 a 10 minutos de antecedência.
  • Por favor, traga seu laptop para o local. Se a duração da bateria for curta, é recomendável trazer um carregador.
  • Registre uma conta do Flying Paddle AI Studio e preencha suas informações pessoais com antecedência.

cronograma da oficina

insira a descrição da imagem aqui

Siga o site oficial do WAVE SUMMIT 2023 e os canais de mídia social para obter as informações mais recentes sobre o Summit e o aviso de inscrição. Vamos começar o futuro da IA ​​juntos e explorar as infinitas possibilidades de grandes modelos. Aguardamos sua chegada, inicie sua jornada de IA e compartilhe a festa do conhecimento e inovação!

Acho que você gosta

Origin blog.csdn.net/PaddlePaddle/article/details/132229655
Recomendado
Clasificación