Baidu, NVIDIA, Intel... os principais fabricantes se reuniram para discutir o plano de prática inovador de treinamento, promoção e implantação de modelos em grande escala sob a ecologia de compartilhamento de Wenxin e Flying Paddle

A cúpula WAVE SUMMIT 2023, patrocinada pelo National Engineering Research Center for Deep Learning Technology and Application e realizada pela Baidu Flying Paddle e Wenxin Big Model, está chegando! Esta cúpula se concentra nas principais direções da tecnologia de IA, ecologia industrial e tendências futuras. Grandes nomes de todas as esferas da vida, incluindo produção, aprendizado, pesquisa e uso, se concentrarão no desenvolvimento e no futuro da aprendizagem profunda e em larga escala tecnologia de modelo, trazendo insights sobre a indústria e uma série de novos sucessos de bilheteria. Hoje, apresentarei os destaques do fórum paralelo "Smart Hard Core Ecological Co-criation", vamos dar uma espiada!

Detalhes do Evento
O Fórum Paralelo "Intelligent Hard Core Ecological Co-criation" tem a honra de convidar Liang Xiaoyao, professor e líder de disciplina do Departamento de Ciência da Computação e Engenharia da Shanghai Jiaotong University, como presidente do fórum. Vários especialistas seniores e representantes corporativos entre os membros do plano de cocriação ecológica de hardware compartilharão com você a integração e a cooperação aprofundadas e as atualizações de capacidade em termos de poder de computação e algoritmos e discutirão em conjunto o esquema de integração de software e hardware baseado na construção ecológica compartilhada de Wenxin e Flying Paddle E planos de prática inovadores, compartilhando tecnologias de ponta para treinamento de modelos grandes e implantação de raciocínio.
tópico do relatório

insira a descrição da imagem aqui

Liang Xiaoyao

Professor e Líder Acadêmico, Departamento de Ciência da Computação e Engenharia, Shanghai Jiao Tong University

Colaboração de software e hardware para construir uma ecologia industrial em larga escala

A demanda por poder de computação está explodindo sob o grande modelo, como buscar uma inovação em chips de poder de computação, e a construção de um ecossistema colaborativo de software e hardware é a chave. A rápida ascensão de grandes modelos no ano passado deu à indústria de chips uma oportunidade histórica para rejuvenescer. Neste momento, é necessário reunir o poder de toda a indústria, seja o atual suserano ou um novato em ascensão, para unir as mãos para criar uma excelente ecologia de modelo em grande escala.

insira a descrição da imagem aqui

Zheng Bin

NVIDIA×Flying Paddle, líder de produto sênior, NVIDIA Asia Pacific
: desempenho extremo, permitindo que a IA seja usada em milhares de setores.
Os aplicativos de IA generativa floresceram, mudando profundamente nosso modo de vida nos últimos seis meses e melhorando muito nossa eficiência de produção e produtividade Capacidade de trabalho. Neste discurso de abertura, será compartilhado que, usando a nova pilha de hardware e software da NVIDIA, os desenvolvedores de modelos de linguagem grande (LLM) podem reduzir custos e aumentar a eficiência, alcançar a inovação tecnológica e ganhar a confiança das empresas LLM por meio de funções de computação confidenciais .

insira a descrição da imagem aqui

Zhao Yuping

Arquiteto de inteligência artificial da Intel Intel×Flying Paddle: a aceleração do núcleo vai
longe, compartilha o novo layout de IA
equipe, do hardware Adaptar-se ativamente aos produtos full-stack AI da Intel. No nível do software, as duas partes também realizaram uma cooperação profunda, que será compartilhada em detalhes neste discurso principal. Enquanto isso, modelos de linguagem grandes (LLMs) recentes estão conquistando todo o mundo do aprendizado de máquina. O LLM requer muito poder de computação para atender aos requisitos de baixa latência de alguns cenários, e os custos associados podem ser proibitivos para muitas organizações. Nesta palestra, discutiremos técnicas de otimização para reduzir o tamanho do LLM e a latência de inferência para que possam ser executados com eficiência nos processadores Intel Xeon de 4ª geração chamados AMX (Advanced Matrix Acceleration Engine).

insira a descrição da imagem aqui

Ming Libo,
Gerente Geral do Departamento de Aplicação e Promoção de Computação Inteligente Sugon
Sugon × Flying Paddle: Serviço de computação pública, apoiando totalmente a transformação digital
Com a maturidade contínua de modelos de escala ultralarga, a indústria de inteligência artificial entrou gradualmente na era 2.0. Sugon e Baidu Flying Paddle têm uma cooperação profunda nas áreas de pré-treinamento de modelos grandes, ajuste fino de modelos industriais, adaptação e acoplamento de aplicativos, construção de shopping centers, etc., e continuam a melhorar a ecologia suave e rígida da inteligência artificial , fornecendo uma base sólida para o desenvolvimento e implementação da tecnologia de inteligência artificial de próxima geração.
insira a descrição da imagem aqui

Xu Zhen

Gerente Geral da Kunlun Core Government Enterprise/Smart Computing Center Business

Kunlun Core × Flying Paddle: Otimização de ponta a ponta para criar poder de "núcleo" de IA na era dos modelos grandes

A era dos modelos de grande escala impõe desafios ao fornecimento de poder de computação. Kunlun Core adere à inovação colaborativa de software e hardware e lança soluções de ponta a ponta para modelos de grande escala em resposta à demanda do mercado, liderando o setor nos resultados de desempenho e implementação. Diante das oportunidades sem precedentes trazidas por grandes modelos, o Kunlun Core une-se firmemente a parceiros upstream e downstream, como o Baidu Flying Paddle, para acelerar a melhoria da competitividade do "núcleo" da indústria de inteligência artificial do meu país.

insira a descrição da imagem aqui

Yan Yan
, diretor de P&D de aplicativos de software da
Tianshu Zhixin Tianshu Zhixin×Flying Paddle: estabelecendo raízes e fundações para criar um paradigma central para a indústria de modelos em larga
escala GPUs de propósito, alcançou muitos casos no campo de modelos grandes Landing, incluindo quase 100 bilhões de pré-treinamento de parâmetros com base na escala de quilocalorias, ajuste fino de parâmetro completo/alta eficiência, raciocínio de modelo em grande escala da indústria em uma máquina, etc. A pilha de software é compatível com a ecologia convencional. O produto de treinamento Tiangai 100 concluiu rapidamente a adaptação de três níveis e o reconhecimento mútuo com a estrutura do remo voador em um curto período de tempo. No período posterior, as duas partes cooperarão ainda mais em a direção de plataformas completas de treinamento, raciocínio e algoritmo baseadas na ecologia aberta para construir em conjunto A solução que integra software e hardware capacita a indústria.

insira a descrição da imagem aqui

Ding Yunfan

Vice-presidente de arquitetura de sistema da tecnologia Biren Tecnologia Biren × Flying Paddle: Não há fim para a inovação e há enormes lacunas no treinamento distribuído de grandes modelos do tipo GPT na construção de
instalações de IA de uso geral de alto desempenho em termos de escala de parâmetros do modelo, escala de poder de computação e desempenho de treinamento.Desafios
, a aplicação de grandes modelos também apresenta problemas de alto custo e longo atraso. Este relatório apresenta principalmente a estratégia de treinamento paralelo distribuído do modelo grande GPT, como construir um sistema de treinamento de modelo grande e um mecanismo de inferência de modelo grande de baixa latência e alto desempenho com base na GPU de uso geral de grande poder de computação da Biren Technology e finalmente compartilha Biren Technology e Baidu Flying Paddle Cooperação e progresso na ecologia básica e modelos em grande escala de software e hardware de inteligência artificial.

insira a descrição da imagem aqui

Fórum de mesa redonda: Wenxin Large Model capacita a IA de ponta a ponta

Baidu, Qualcomm, MediaTek e Amou Technology, três empresas de benchmarking de hardware de ponta a ponta, discutiram em conjunto a perspectiva de aplicação do grande modelo Wenxin capacitando a IA de ponta a ponta. Representantes de três empresas de hardware compartilharão seus progressos mais recentes em hardware de ponta que suporta tecnologia de modelo em grande escala, discutirão como combinar o modelo de grande escala Wenxin com produtos de tecnologia de hardware de ponta e usarão as poderosas funções do modelo de grande escala Wenxin para promover ainda mais end-to-end O desenvolvimento de aplicativos de IA laterais para atender às necessidades cada vez maiores do usuário.

Além disso, o Flying Paddle + Wenxin Large Model se unirá aos fabricantes de hardware para lançar em conjunto o Plano de Cocriação Ecológica de Hardware do Flying Paddle + Wenxin Large Model Hardware neste fórum.
insira a descrição da imagem aqui

Acho que você gosta

Origin blog.csdn.net/PaddlePaddle/article/details/132211119
Recomendado
Clasificación