Artigos populares em agosto | O AI Agent será a futura direção de desenvolvimento de grandes modelos?

Se eu tivesse que resumir o mês de agosto passado em uma palavra, seria “Agente”!

A segunda metade da grande indústria de modelos já começou e os principais fabricantes manifestaram a intenção de entrar no mercado de "Agentes". Andrej Karpathy, membro fundador da OpenAI, disse que, em comparação com grandes modelos, a OpenAI está atualmente focada no campo de agentes internamente.A Amazon também anunciou novos recursos do Amazon Bedrock Agents, e a antiga "AI Town" de Stanford também é uma manifestação de "Agente".

Em agosto, a equipe ChatGLM da Universidade Tsinghua lançou a ferramenta de avaliação de capacidade do agente AI AgentBench; a equipe da Escola Hillhouse de Inteligência Artificial da Universidade Renmin da China lançou o artigo de revisão do agente AI "Uma Pesquisa sobre Autonomous baseada em LLM Agentes"; a equipe SenseTime propôs uma ferramenta especificamente para uma estrutura estruturada adaptada para agentes de inteligência artificial baseados em LLM.

Claro, além do trabalho acima, há também Code Llama, a ferramenta de código mais poderosa da história do Meta open source, 38 instituições, mais de 200 documentos e uma equipe liderada por Yoshua Bengio para revisar descobertas científicas no Era da IA, etc.

Vamos dar uma olhada.

1. Code Llama: Modelos de base aberta para código

Meta lançou um conjunto de modelos de linguagem em grande escala chamado Code Llama, que é baseado no Llama 2 e fornece código com desempenho de última geração, recursos de preenchimento, suporte para grandes contextos de entrada e instruções de disparo zero seguindo recursos . Fornecemos múltiplas variantes para cobrir uma ampla gama de aplicações: modelo base (Code Llama), experiência em Python (Code Llama - Python) e modelo de seguimento de instruções (Code Llama - Instruct), com parâmetros de 7 bilhões e 13 bilhões respectivamente e 34 bilhão. Todos os modelos são treinados em sequências de 16 mil tokens e mostram melhorias em entradas com até 100 mil tokens. As variantes Code Llama e Code Llama - Instruct 7B e 13B suportam preenchimento com base no conteúdo circundante. Code Llama atinge desempenho de última geração em vários benchmarks de código, alcançando pontuações de 53% e 55% em HumanEval e MBPP, respectivamente. Notavelmente, Code Llama - Python 7B supera Llama 2 70B em HumanEval e MBPP, enquanto todos os modelos do Meta superam qualquer outro modelo disponível publicamente em MultiPL-E. Lançamos o Code Llama sob uma licença permissiva que permite pesquisa e uso comercial.

Link do artigo: https://www.aminer.cn/pub/64e82e45d1d14e646633f5aa

2. Descoberta científica na era da inteligência artificial

Este artigo discute os avanços da IA ​​nas descobertas científicas na última década, incluindo métodos como aprendizagem autossupervisionada e aprendizagem geométrica profunda. Estes métodos podem ajudar os cientistas a acelerar e melhorar a investigação, gerando hipóteses, concebendo experiências, recolhendo e interpretando grandes quantidades de dados e obtendo conhecimentos que podem não ser possíveis com métodos científicos tradicionais. Além disso, os métodos generativos de IA podem criar designs como medicamentos e proteínas de moléculas pequenas, analisando diferentes padrões de dados, como imagens e sequências. Este artigo discute como esses métodos ajudam os cientistas em todo o processo científico e as questões centrais que permanecem apesar desses avanços. Tanto os desenvolvedores quanto os usuários de ferramentas de IA precisam entender melhor quando esses métodos precisam ser melhorados, bem como os desafios relacionados à qualidade e ao gerenciamento de dados. Estes problemas abrangem disciplinas científicas e exigem o desenvolvimento de métodos algorítmicos fundamentais que possam contribuir para a compreensão científica ou ser adquiridos de forma autónoma, tornando-os um foco principal para a inovação em IA. Este artigo analisa os avanços na inteligência artificial ao longo da última década, discutindo como os sistemas de IA podem ajudar o processo científico e as questões centrais que permanecem apesar dos avanços.

Link do artigo: https://www.aminer.cn/pub/64cb4fb63fda6d7f06fecb8b

3. AgentBench: Avaliando LLMs como Agentes

O artigo apresenta um benchmark evolutivo multidimensional chamado AgentBench, que é usado para avaliar a capacidade de grandes modelos de linguagem (LLM) como agentes. À medida que os LLMs se tornam cada vez mais inteligentes e autónomos, funcionando em tarefas práticas do mundo real, para além das tarefas tradicionais de processamento de linguagem natural, torna-se urgente avaliar as capacidades dos LLMs como agentes em tarefas desafiantes em ambientes interactivos. O artigo testou 25 LLMs (incluindo APIs e modelos de código aberto) e descobriu que os principais LLMs comerciais tiveram um desempenho muito bom como agentes em ambientes complexos, mas havia uma lacuna significativa de desempenho entre eles e os concorrentes de código aberto. Este benchmark faz parte de um projeto em andamento para avaliar sistematicamente o LLM com uma cobertura mais ampla e uma consideração mais aprofundada.

Link do artigo: https://www.aminer.cn/pub/64d1bdf93fda6d7f06ec4af3

4. Tudo em um: solicitação multitarefa para redes neurais gráficas

Este artigo estuda o problema de prompting de Redes Neurais de Grafos (GNNs) para resolver o problema de incompatibilidade de métodos de pré-processamento e ajuste fino ao processar várias tarefas de grafos. Embora os métodos de pré-processamento e ajuste fino possam aliviar o problema da falta de anotações de gráfico, a diversidade de tarefas em nível de nó, nível de borda e nível de gráfico torna os métodos de pré-processamento muitas vezes inadequados para múltiplas tarefas. Isso pode levar à "migração negativa" de determinados aplicativos, resultando em desempenho insatisfatório.

O artigo baseia-se no conceito de prompt no processamento de linguagem natural (PNL) e propõe um novo método de prompt multitarefa no campo de gráficos. Especificamente, primeiro unificamos prompts de gráfico e prompts de linguagem usando prompts, estruturas de token e modos de inserção, para que o conceito de prompt em PNL possa ser aplicado perfeitamente ao campo gráfico. Então, para diminuir ainda mais a lacuna entre as várias tarefas gráficas e as estratégias de pré-processamento de última geração, estudamos profundamente o espaço de tarefas de vários aplicativos gráficos e reestruturamos os problemas posteriores em tarefas no nível do gráfico. Por fim, empregamos meta-aprendizado para aprender com eficiência a inicialização de prompts multitarefa, tornando nossa estrutura de prompts mais confiável e versátil para diferentes tarefas. Conduzimos experimentos extensos e os resultados mostram que nosso método tem melhor desempenho em múltiplas tarefas de teste.

Link do artigo: https://www.aminer.cn/pub/64a63bbad68f896efaec478f

5. LLMs confiáveis: uma pesquisa e diretrizes para avaliar o alinhamento de grandes modelos de linguagem

O resumo deste artigo é sobre como avaliar a confiança em grandes modelos de linguagem (LLMs) para garantir que o modelo se comporte de maneira consistente com a intenção humana. O artigo apresenta uma pesquisa abrangente que abrange dimensões-chave para avaliar a confiabilidade dos LLMs, incluindo confiabilidade, segurança, justiça, resistência ao abuso, explicabilidade e capacidade de raciocínio, conformidade com normas sociais e robustez, no total. Dividido em 7 categorias principais e 29 subcategorias . O artigo seleciona ainda 8 subcategorias para pesquisa aprofundada e conduz pesquisas de medição em vários LLMs amplamente utilizados. As medições mostram que, em geral, modelos mais consistentes têm melhor desempenho em termos de credibilidade global. No entanto, os efeitos do alinhamento variam muito entre as diferentes categorias de confiança, o que enfatiza a importância de análises mais refinadas, testes e melhoria contínua do LLM. Ao explorar essas dimensões-chave, o artigo visa fornecer informações e orientações valiosas aos profissionais da área. Compreender e abordar essas questões é fundamental para alcançar a implantação confiável e ética do LLM em uma variedade de aplicações.

Link do artigo: https://www.aminer.cn/pub/64d5b2153fda6d7f060d00a4

6. AudioLDM 2: Aprendendo a geração holística de áudio com pré-treinamento auto-supervisionado

Este artigo apresenta uma estrutura de geração de áudio chamada AudioLDM 2 que usa o mesmo método de aprendizado para lidar com a geração de fala, música e efeitos sonoros. A estrutura introduz uma representação de áudio universal chamada Linguagem de Áudio (LOA), e qualquer áudio pode ser convertido em uma LOA de acordo com o AudioMAE, um modelo de aprendizagem de representação pré-treinado auto-supervisionado. Durante o processo de geração, o modelo GPT-2 é utilizado para converter qualquer modalidade para LOA, e o aprendizado auto-supervisionado de geração de áudio é realizado em um modelo de difusão latente condicionado em LOA. Esta estrutura traz naturalmente vantagens como capacidades de aprendizagem contextual e AudioMAE pré-treinado auto-supervisionado reutilizável e modelos de difusão latente. Experimentos demonstram o desempenho de última geração desta abordagem em relação aos métodos anteriores nos principais benchmarks de texto para áudio, texto para música e texto para fala.

Link do artigo: https://www.aminer.cn/pub/64d5b21d3fda6d7f060d0db5

7. Auto-alinhamento com retrotradução de instruções

Este artigo apresenta um método escalonável chamado "tradução reversa de instruções" para construir modelos de linguagem de seguimento de instruções de alta qualidade. O método alcança o autoalinhamento atribuindo automaticamente instruções correspondentes ao texto escrito por humanos. Primeiro, o modelo de linguagem é ajustado em uma pequena quantidade de dados iniciais e em um determinado corpus da web. Em seguida, o modelo inicial é usado para gerar instruções para auto-aumento de documentos da web, e exemplos de alta qualidade são selecionados desses candidatos para auto-curadoria. Finalmente, os dados são usados ​​para ajustar novamente o modelo, resultando em um modelo mais poderoso. Após duas iterações, este método superou todos os modelos básicos do LLaMa que não dependem de dados de destilação no ranking Alpaca, provando que o efeito do auto-alinhamento é muito eficiente.

Link do artigo: https://www.aminer.cn/pub/64d9a6873fda6d7f061d37b9

8. Aprendendo a identificar estados críticos para aprendizagem por reforço com vídeos

Este artigo estuda principalmente como aprender a identificar estados-chave a partir de vídeos para aplicação na aprendizagem por reforço. Pesquisas recentes de aprendizagem por reforço profundo (DRL) apontam que informações algorítmicas sobre boas políticas podem ser extraídas de dados off-line que carecem de informações explícitas sobre as ações executadas. Por exemplo, vídeos de humanos ou robôs podem conter muitas informações implícitas sobre sequências de ação benéficas, mas uma máquina DRL que queira lucrar assistindo a esses vídeos deve primeiro aprender a reconhecer e compreender os estados/ações/recompensas relevantes por conta própria. Sem depender de anotações verdadeiras, nosso novo método "Deep State Identifier" aprende a prever recompensas de episódios codificados como vídeos. Em seguida, ele usa uma análise de sensibilidade baseada em máscara para extrair/identificar estados críticos importantes. Extensos experimentos demonstram o potencial de nossa abordagem na compreensão e melhoria do comportamento dos agentes.

Link do artigo: https://www.aminer.cn/pub/64dc49903fda6d7f06389d06

9. Consciência em Inteligência Artificial: Insights da Ciência da Consciência

O artigo é intitulado “Consciência na Inteligência Artificial: Insights da Ciência da Consciência”. O artigo explora se os sistemas de inteligência artificial atuais ou de curto prazo podem ser conscientes, uma questão científica e de crescente preocupação pública. O artigo defende e exemplifica uma abordagem rigorosa e empiricamente baseada para estudar a consciência da IA, com base numa avaliação exaustiva dos sistemas de IA existentes e contra as nossas teorias neurocientíficas da consciência mais bem apoiadas. O artigo examina várias teorias científicas importantes da consciência, incluindo a teoria do processamento recorrente, a teoria do espaço de trabalho global, a teoria de ordem superior, o processamento preditivo e a teoria dos padrões de atenção. A partir destas teorias, derivamos “propriedades indicadoras” da consciência e articulamo-las em termos computacionais para que possamos avaliar sistemas de IA com base nestas propriedades. Avaliamos vários sistemas recentes de IA usando essas propriedades métricas e discutimos como sistemas futuros podem atingir essas propriedades. A nossa análise mostra que os actuais sistemas de IA não são conscientes, mas também mostra que não existem barreiras óbvias à construção de sistemas de IA conscientes.

Link do artigo: https://www.aminer.cn/pub/64e2e14f3fda6d7f0646637a

10. Diversificando a IA: Rumo ao Xadrez Criativo com AlphaZero

Este artigo explora se a inteligência artificial poderia se beneficiar de ter mecanismos criativos de tomada de decisão quando confrontada com tarefas difíceis. Os pesquisadores resolveram problemas difíceis construindo uma equipe diversificada de sistemas de inteligência artificial em um jogo de xadrez e usando técnicas de diversidade comportamental para aumentar a gama de ideias geradas, selecionando então as mais promissoras. O estudo descobriu que equipes de diversos sistemas de IA poderiam jogar xadrez de maneiras mais diversas e resolver o dobro de quebra-cabeças do que equipes de sistemas de IA únicos. Além disso, cada membro da equipe apresenta conhecimentos diferentes em diferentes partidas e, ao usar o planejamento subaditivo para selecionar membros para cada partida, o desempenho de toda a equipe pode ser significativamente melhorado. As descobertas sugerem que a diversidade é um recurso valioso para resolver problemas computacionalmente difíceis e que as recompensas de diversidade em equipas de sistemas de IA são tão importantes como as recompensas de diversidade em equipas humanas.

Link do artigo: https://www.aminer.cn/pub/64e2e14f3fda6d7f06466555

11. ProAgent: Construindo IA Cooperativa Proativa com Grandes Modelos de Linguagem

Este artigo apresenta uma nova estrutura chamada ProAgent, que aproveita grandes modelos de linguagem para ajudar os agentes a serem mais prospectivos e proativos na cooperação com humanos ou outros agentes. Os métodos tradicionais de agentes cooperativos baseiam-se principalmente em métodos de aprendizagem, e a generalização de políticas depende fortemente de interações passadas com colegas de equipa específicos, o que limita a capacidade do agente de reajustar a sua estratégia quando enfrenta novos companheiros de equipa. O ProAgent pode prever as decisões futuras dos colegas de equipe e desenvolver planos aprimorados para si mesmo, mostrando excelentes capacidades de raciocínio cooperativo e sendo capaz de se adaptar dinamicamente para melhorar a eficácia da cooperação com os colegas de equipe. Além disso, a estrutura do ProAgent é altamente modular e interpretável e pode ser perfeitamente integrada em vários cenários de coordenação. Os resultados experimentais mostram que o ProAgent supera cinco métodos de treinamento baseados em jogos e populacionais na estrutura Overcook-AI. Em cooperação com modelos de agentes humanos, seu desempenho melhora em média mais de 10%, superando o estado atual de- a arte. Método avançado COLE. Este avanço é consistente em diversos cenários que envolvem interações com agentes de IA e oponentes humanos com características diferentes. Essas descobertas inspiram pesquisas futuras sobre a colaboração humano-robô.

Link do artigo: https://www.aminer.cn/pub/64e5849c3fda6d7f063af3cd

12. Uma pesquisa sobre agentes autônomos baseados em grandes modelos de linguagem

Este artigo é uma visão geral da pesquisa sobre agentes autônomos baseada em grandes modelos de linguagem. Pesquisas anteriores muitas vezes se concentraram no treinamento de agentes em ambientes isolados com conhecimento limitado, o que está longe do processo de aprendizagem humano, dificultando assim que os agentes tomem decisões semelhantes às humanas. Nos últimos anos, os grandes modelos de linguagem (LLMs) demonstraram grande potencial na obtenção de inteligência de nível humano, através da aquisição de grandes quantidades de conhecimento de rede. Isto desencadeou um aumento na pesquisa sobre agentes autônomos baseados em LLM. Para explorar totalmente o potencial do LLM, os pesquisadores projetaram várias arquiteturas de agentes para diferentes aplicações. Neste artigo, conduzimos uma revisão sistemática desses estudos como um todo. Especificamente, nos concentramos na construção de agentes baseados em LLM, para os quais propomos uma estrutura unificada que cobre a maior parte do trabalho anterior. Além disso, fornecemos uma visão geral de várias aplicações de agentes de inteligência artificial baseados em LLM nas áreas de ciências sociais, ciências naturais e engenharia. Finalmente, discutimos estratégias comuns para avaliar agentes de inteligência artificial baseados em LLM. Com base em pesquisas anteriores, também propomos vários desafios e direções futuras neste campo.

Link do artigo: https://www.aminer.cn/pub/64e5849c3fda6d7f063af42e

13. SeamlessM4T - Tradução automática massivamente multilíngue e multimodal

Este artigo apresenta um modelo de tradução automática multilíngue e multimodal em grande escala chamado SeamlessM4T, que pode ajudar indivíduos a traduzir falas entre até 100 idiomas. Embora os modelos baseados em texto tenham ultrapassado recentemente a cobertura de tradução em 200 idiomas, os modelos unificados de tradução de fala para fala ainda não alcançaram progresso semelhante. Para resolver este problema, os autores propõem um modelo único que suporta tradução de fala para fala, tradução de fala para texto, tradução de texto para fala, tradução de texto para texto e reconhecimento automático de fala. Eles usaram 1 milhão de horas de dados de áudio de fala aberta para aprender representações de fala auto-supervisionadas e criaram um corpus de tradução de fala multimodal alinhado automaticamente. Ao filtrar dados rotulados e pseudo-rotulados por humanos, eles desenvolveram o primeiro sistema multilíngue que pode traduzir de e para inglês para fala e texto. Na avaliação FLEURS, o SeamlessM4T alcançou uma pontuação BLEU 20% superior à melhor pontuação anterior em tradução direta de fala para texto. Comparado com o poderoso modelo em cascata, o SeamlessM4T melhora 1,3 pontos BLEU na tradução de fala para texto e 2,6 pontos ASR-BLEU na tradução de fala para fala. Após testes de robustez, o sistema teve melhor desempenho contra ruído de fundo e mudanças de locutor em tarefas de fala para texto. Os autores também avaliaram a segurança translacional do SeamlessM4T em termos de preconceito de gênero e toxicidade adicional. Por fim, eles abriram o código-fonte de todas as suas contribuições no GitHub para que mais pessoas aprendam e usem.

Link do artigo: https://www.aminer.cn/pub/64e5849c3fda6d7f063af4d6

14. InstruçãoGPT-4: Um paradigma de 200 instruções para ajuste fino do MiniGPT-4

Este artigo ilustra os problemas encontrados quando grandes modelos de linguagem multimodal executam instruções a seguir. Esses modelos adquirem a capacidade de seguir instruções por meio de um processo de treinamento em dois estágios, primeiro pré-treinamento em pares imagem-texto e depois ajuste fino em dados de instrução visual-verbal supervisionados. Pesquisas recentes mostram que grandes modelos de linguagem podem alcançar resultados satisfatórios mesmo com um número limitado de instruções de alta qualidade seguindo os dados. O artigo apresenta o InstruçãoGPT-4, um modelo ajustado em apenas um pequeno conjunto de dados de 200 exemplos, o que equivale a cerca de 6% da instrução seguindo dados usados ​​no conjunto de dados alinhado MiniGPT-4. Os autores propõem primeiro várias métricas para medir a qualidade dos dados de instrução multimodal. Com base nessas métricas, eles propõem um seletor de dados simples, mas eficaz, que pode identificar e filtrar automaticamente dados linguísticos visuais de baixa qualidade. Ao adotar esta abordagem, a InstruçãoGPT-4 supera o MiniGPT-4 original em várias avaliações (como resposta visual a perguntas, preferência GPT-4). No geral, os resultados mostram que dados de ajuste fino de instrução menores, mas de maior qualidade, podem efetivamente permitir que modelos linguísticos multimodais em grande escala produzam melhores resultados.

Link do artigo: https://www.aminer.cn/pub/64e6d5bd3fda6d7f0652c7f8

15. Aprendizado por Reforço para IA Generativa: Uma Pesquisa

O resumo deste artigo é sobre a aplicação da aprendizagem por reforço na inteligência artificial generativa. A inteligência artificial gerativa tem uma importância de longa data no campo do aprendizado de máquina e pode impactar muitas áreas de aplicação, como geração de texto e visão computacional. O principal método para treinar modelos generativos é a estimativa de máxima verossimilhança, que leva o aluno a capturar e aproximar a distribuição de dados alvo, reduzindo a diferença entre a distribuição do modelo e a distribuição alvo. No entanto, esta abordagem não pode satisfazer todas as expectativas dos utilizadores em relação aos modelos generativos. A aprendizagem por reforço, como opção competitiva, pode explorar novos sinais criando novos alvos, injetando assim novos sinais de treinamento, demonstrando sua adaptabilidade forte e flexível e beneficiando-se de múltiplas perspectivas (por exemplo, aprendizagem adversária, desenho manual de regras e modelos de recompensa de aprendizagem) para incorporar preconceitos indutivos humanos. Como resultado, a aprendizagem por reforço tornou-se um campo de pesquisa popular e ultrapassou os limites no design de modelos e na aplicação de inteligência artificial generativa. Embora algumas investigações tenham sido realizadas em diferentes áreas de aplicação nos últimos anos, esta revisão visa fornecer uma análise abrangente do progresso nos últimos anos e abrange várias áreas de aplicação. Fornecemos uma taxonomia rigorosa para este domínio com cobertura adequada de vários modelos e aplicações. Notavelmente, também examinamos o campo em rápido crescimento de modelos de linguagem em larga escala. Finalmente, concluímos esta revisão mostrando possíveis direções que podem abordar as limitações dos modelos atuais e expandir as fronteiras da IA ​​generativa.

Link do artigo: https://www.aminer.cn/pub/64ed716d3fda6d7f0658aa83

16. Grandes modelos de linguagem para recuperação de informações: uma pesquisa

O resumo deste artigo é sobre recuperação de informação usando grandes modelos de linguagem. Os sistemas de recuperação de informação tornaram-se a principal forma de obter informações no nosso dia a dia e também servem como parte integrante dos sistemas de diálogo, perguntas e respostas e recomendações. A trajetória de desenvolvimento da recuperação de informação começou a partir de métodos baseados em termos e evoluiu para ser combinada com modelos neurais avançados. Embora os modelos neurais sejam excelentes na captura de sinais contextuais complexos e nuances semânticas, eles ainda enfrentam desafios como escassez de dados, interpretabilidade e geração de respostas contextualmente razoáveis ​​que podem ser imprecisas. Este desenvolvimento requer a combinação de métodos tradicionais, como métodos de recuperação esparsa baseados em termos, com arquiteturas neurais modernas, como modelos de linguagem com poderosas capacidades de compreensão de linguagem. O surgimento de modelos de linguagem em larga escala (como ChatGPT e GPT-4) revolucionou o campo do processamento de linguagem natural devido às suas excelentes capacidades de compreensão, geração, generalização e raciocínio da linguagem. Portanto, pesquisas recentes tentam utilizar grandes modelos de linguagem para melhorar os sistemas de recuperação de informação. Dado o rápido desenvolvimento desta trajetória de investigação, é necessário resumir as abordagens existentes e fornecer insights aprofundados através de uma visão abrangente. Nesta pesquisa, analisamos em profundidade a convergência de modelos de linguagem em larga escala e sistemas de recuperação de informações, incluindo aspectos-chave como reescritores de consultas, recuperadores, classificadores e leitores. Além disso, exploramos direções promissoras neste campo em expansão.

Link do artigo: https://www.aminer.cn/pub/64dafb293fda6d7f064e2d9e

17. TPTU: Planejamento de tarefas e uso de ferramentas de agentes de IA baseados em modelos de linguagem grande

Este artigo discute principalmente o poder dos grandes modelos de linguagem (LLMs) em diversas aplicações práticas, mas também aponta que as capacidades generativas inerentes dos LLMs podem não ser suficientes para lidar com tarefas complexas que exigem uma combinação de planejamento de tarefas e ferramentas externas. Portanto, o autor propõe uma estrutura estruturada para agentes de inteligência artificial baseados em LLM e projeta dois tipos diferentes de agentes (agente de uma etapa e agente de sequência) para realizar o processo de raciocínio. Em seguida, os autores instanciam a estrutura usando vários LLMs e avaliam seus recursos de planejamento de tarefas e uso de ferramentas (TPTU) em tarefas típicas. Ao destacar as principais descobertas e desafios, o artigo visa fornecer aos investigadores e profissionais um recurso útil para aproveitar o poder do LLM em aplicações de inteligência artificial. O estudo destaca o enorme potencial destes modelos, ao mesmo tempo que aponta para áreas onde são necessárias mais pesquisas e melhorias.

Link do artigo: https://www.aminer.cn/pub/64d1bde83fda6d7f06ec3db6

18. Raciocínio cumulativo com grandes modelos de linguagem

Este artigo propõe um novo método denominado Raciocínio Cumulativo (CR), que utiliza grandes modelos de linguagem para simular o processo de pensamento humano de maneira cumulativa e iterativa. Ao dividir as tarefas em componentes menores, a abordagem CR simplifica o processo de resolução de problemas, tornando-o mais viável e eficiente. Em tarefas de raciocínio lógico, o método CR tem um desempenho melhor do que os métodos existentes, com uma melhoria de 9,3%, e atinge uma precisão surpreendente de 98,04% no conjunto de dados wiki FOLIO filtrado. No contexto do jogo de 24 pontos, o método CR atinge 94% de precisão, uma melhoria de 20% em relação ao método de última geração anterior.

Link do artigo: https://www.aminer.cn/pub/64d30f353fda6d7f06f6cb27


Clique aqui para ver: Tutorial de utilização do ChatPaper
Clique aqui para entrar: Entrada do ChatPaper

Acho que você gosta

Origin blog.csdn.net/AI_Conf/article/details/132801538
Recomendado
Clasificación