Suivi en temps réel des tendances de la recherche scientifique 丨 7.19 nouveaux articles sélectionnés, avec résumé ChatPaper

En tant que chercheur scientifique, vous devez rechercher et parcourir quotidiennement une grande quantité de littérature académique pour obtenir les derniers progrès scientifiques et technologiques et les résultats de la recherche. Cependant, les méthodes traditionnelles de récupération et de lecture ne peuvent plus répondre aux besoins des chercheurs.

ChatPaper, un outil de connaissance des documents qui intègre la récupération, la lecture et les questions-réponses sur les connaissances. Vous aider à améliorer rapidement l'efficacité de la recherche et de la lecture d'articles, à obtenir les dernières tendances de la recherche dans le domaine et à faciliter la recherche scientifique.
insérez la description de l'image ici

Combiné avec la fonction d'abonnement dynamique de pointe, sélectionnez les nouveaux articles populaires du jour d'arXiv pour former un résumé des articles, afin que chacun puisse comprendre plus rapidement les tendances de pointe.

Si vous souhaitez avoir un dialogue approfondi sur un certain article, vous pouvez directement copier le lien de l'article sur votre navigateur ou aller directement sur la page ChatPaper : https://www.aminer.cn/chat/g/

Liste des nouveaux articles en vedette pour le 19 juillet 2023 :

1.Agents de communication pour le développement de logiciels

Lien : https://www.aminer.cn/pub/64b60eaa3fda6d7f06eaea2a/

Examen de ChatPaper : cet article propose un paradigme innovant qui utilise de grands modèles de langage (LLM) pour rationaliser et unifier les processus clés grâce à la communication en langage naturel tout au long du processus de développement logiciel, éliminant ainsi le besoin de modèles spécialisés à chaque étape. Au cœur de ce paradigme se trouve ChatDev, une société fictive de développement de logiciels basée sur le chat qui simule le modèle en cascade établi, subdivisant le processus de développement en quatre périodes distinctes de conception, de codage, de test et de documentation. Chaque étape implique une équipe d'agents tels que des programmeurs, des réviseurs de code et des ingénieurs de test, facilitant le dialogue collaboratif et facilitant un flux de travail transparent. La chaîne de discussion agit comme un facilitateur, décomposant chaque étape en sous-tâches atomiques. Cela permet aux doubles rôles de résoudre efficacement des sous-tâches spécifiques en proposant et en validant des solutions grâce à une communication sensible au contexte. L'analyse empirique de ChatDev met en évidence sa remarquable efficacité dans la génération de logiciels, permettant de réaliser l'ensemble du processus de développement logiciel en moins de sept minutes pour un coût inférieur à un dollar. Il identifie et atténue non seulement les vulnérabilités potentielles, mais corrige également les illusions sous-jacentes tout en restant efficace et rentable. Le potentiel de ChatDev révèle de nouvelles opportunités pour intégrer les LLM dans le domaine du développement de logiciels.

2.Llama 2 : Fondation ouverte et modèles de chat affinés

Lien : https://www.aminer.cn/pub/64b758dd1a5852438b7976ff/

Tour d'horizon de ChatPaper : Llama 2 est une collection pré-formée et affinée de grands modèles de langage (LLM) avec des paramètres allant de 7 milliards à 70 milliards. Parmi eux, le LLM affiné s'appelle Llama 2-Chat, qui est spécialement optimisé pour les cas d'utilisation conversationnels. Notre modèle surpasse les modèles de chat open source sur la plupart des benchmarks que nous testons, et peut être un remplacement approprié pour les modèles de source fermée basés sur des évaluations humaines que nous effectuons concernant l'utilité et la sécurité. Nous décrivons en détail notre approche pour affiner et améliorer la sécurité de Llama 2-Chat afin de permettre à la communauté de s'appuyer sur nos fondations et de contribuer au développement responsable de LLM

3. Augmenter CLIP avec un raisonnement visio-linguistique amélioré

Lien : https://www.aminer.cn/pub/64b76c703fda6d7f068eecf3/

Revue de ChatPaper : L'article souligne le problème de performance des modèles contrastifs image-texte existants sur des tâches de langage de vision synthétique (telles que Winoground), dont les performances sont équivalentes à une estimation aléatoire. Ensuite, l'article propose une méthode appelée SDS-CLIP, qui améliore la synthèse de CLIP en affinant CLIP à l'aide d'un paramétrage d'image différentiable en distillant des cibles à partir de modèles de génération de texte à image tels que Stable-Diffusion. Sur la difficile référence d'inférence synthétique Winoground, la méthode améliore les performances absolues du langage visuel de différents modèles CLIP jusqu'à 7 %, et sur l'ensemble de données ARO, la méthode améliore les performances du langage visuel jusqu'à 3 %. De légères améliorations des performances de zéro coup sur divers ensembles de données en aval sont également trouvées en introduisant un raisonnement visuo-linguistique dans CLIP. L'approche met en évidence que des objectifs de distillation bien conçus à partir de modèles génératifs peuvent être utilisés pour étendre les modèles contrastés image-texte existants et améliorer leurs capacités de raisonnement en langage visuel.

4.Comment le comportement de ChatGPT évolue-t-il au fil du temps ?

Lien : https://www.aminer.cn/pub/64b76c6a3fda6d7f068ee31b/

Tour d'horizon de ChatPaper : l'article souligne que le comportement de deux services de grands modèles de langage (LLM), GPT-3.5 et GPT-4, changera avec le temps. Les auteurs soutiennent cette notion en évaluant les performances de GPT-3.5 et GPT-4 sur quatre tâches différentes : 1) résoudre des problèmes mathématiques, 2) répondre à des questions sensibles/dangereuses, 3) générer du code et 4) raisonnement visuel. L'étude a révélé que les performances et le comportement du GPT-3.5 et du GPT-4 varient considérablement au fil du temps. Par exemple, GPT-4 (mars 2023) réussit très bien à trouver des nombres premiers (précision de 97,6 %), mais GPT-4 (juin 2023) fonctionne très mal sur le même problème (précision de 2,4 %). Fait intéressant, GPT-3.5 (juin 2023) fonctionne mieux que GPT-3.5 (mars 2023) sur cette tâche. En juin, GPT-4 était moins disposé à répondre aux questions sensibles qu'en mars, et GPT-4 et GPT-3.5 étaient plus sujets aux codes malformés en juin qu'en mars. Ensemble, ces résultats suggèrent que le comportement d'un même service LLM peut varier considérablement sur une période de temps relativement courte, ce qui souligne la nécessité d'un contrôle continu de la qualité LLM.

5.DS-Fusion : Typographie Artistique par Diffusion Discriminée et Stylisée

Lien : https://www.aminer.cn/pub/6417d04090e50fcafd83db60/

Examen de ChatPaper : introduit une nouvelle approche pour générer automatiquement des polices artistiques en stylisant une ou plusieurs polices pour transmettre visuellement la sémantique des mots d'entrée tout en garantissant que la sortie est toujours lisible. Pour relever les différents défis auxquels nous sommes confrontés, y compris les objectifs contradictoires (stylisation artistique contre lisibilité), le manque de données de référence et l'énorme espace de recherche, notre méthode s'appuie sur un grand modèle de langage pour faire la distinction entre le texte et les images visuelles. modèle génératif est construit, dont l'épine dorsale est un modèle de diffusion. Plus précisément, nous adoptons le générateur de débruitage dans le modèle de diffusion latente (LDM) et adaptons le style d'entrée au texte d'entrée via un discriminateur basé sur CNN. Le discriminateur utilise l'image tramée de la police donnée comme échantillon réel et la sortie du générateur de débruitage comme échantillon factice. Notre modèle s'appelle DS-Fusion, où DS signifie Discriminative and Styled Diffusion. Nous démontrons la qualité et la polyvalence de notre méthode avec de nombreux exemples, des évaluations qualitatives et quantitatives et des études d'ablation. Les performances puissantes de DS-Fusion sont démontrées par des études d'utilisateurs avec des lignes de base solides et des polices créées par des artistes, notamment CLIPDraw et DALL-E 2. D'après le titre et le résumé, on peut conclure que cet article aborde le problème de la génération automatique de polices artistiques qui combinent style artistique et lisibilité.

6.NU-MCC : Codage compressif multivue avec décodeur de voisinage et UDF répulsif

Lien : https://www.aminer.cn/pub/64b76c6a3fda6d7f068ee3b5/

Revue ChatPaper : a souligné que la méthode MCC présente deux problèmes clés dans le domaine de la reconstruction 3D sous une entrée RVB-D à vue unique : 1) le décodeur de transformateur est inefficace lors du traitement d'un grand nombre de points de requête ; 2) la représentation 3D est difficile à récupérer des détails haute fidélité. Pour résoudre ces problèmes, une nouvelle méthode appelée NU-MCC est proposée dans cet article. NU-MCC comprend deux innovations clés : le décodeur de voisinage et la fonction de distance non signée répulsive (UDF répulsif). Tout d'abord, un décodeur de voisinage introduit des points centraux en tant que proxys efficaces pour les caractéristiques visuelles d'entrée, de sorte que chaque point de requête ne peut être associé qu'à un petit voisinage. Cette conception améliore non seulement la vitesse d'inférence, mais utilise également des fonctionnalités visuelles plus fines pour améliorer la restauration des textures 3D. Deuxièmement, l'UDF répulsif est une nouvelle alternative au champ d'occupation utilisé dans le MCC, qui améliore considérablement la qualité de la reconstruction d'objets 3D. Par rapport aux UDF standard avec des trous dans le résultat, notre UDF répulsif proposé peut réaliser une reconstruction de surface plus complète. Les résultats expérimentaux montrent que NU-MCC est capable d'apprendre de puissantes représentations 3D et a fait des progrès remarquables dans le domaine de la reconstruction 3D à vue unique. En particulier, il obtient un score F1 supérieur de 9,7 % à celui du MCC sur l'ensemble de données CO3D-v2, tout en fonctionnant plus de 5 fois plus vite.

7.Biomaker CA : un projet Biome Maker utilisant des automates cellulaires

Lien : https://www.aminer.cn/pub/64b76c703fda6d7f068eed4c/

Revue ChatPaper : Présente un projet appelé Biomaker CA, qui utilise des automates cellulaires (Cellular Automata) pour simuler la génération de communautés biologiques. Dans Biomaker CA, la morphogenèse est une priorité absolue et les petites graines doivent devenir des organismes ressemblant à des plantes dans un environnement pauvre en nutriments pour survivre et éventuellement se reproduire de manière mutée afin de maintenir la survie à long terme du biome. Simulez des biomes complexes en utilisant des règles d'automates cellulaires sur des grilles 2D et parallélisez les calculs sur les GPU via le framework Python JAX. Le projet permet l'utilisation de différents types d'environnements et de "lois de la physique", ainsi que différentes architectures de modèles et stratégies de mutation. Les auteurs ont ensuite analysé certaines configurations, montrant comment les espèces végétales individuelles poussent, survivent, se reproduisent et évoluent pour former des biomes stables et instables. Les auteurs montrent ensuite comment faire survivre des modèles à des environnements difficiles grâce à une méta-évolution de bout en bout ou à une méthode plus précise et efficace appelée méta-évolution par boîte de Petri. Enfin, les auteurs montrent comment faire une évolution interactive, où les utilisateurs peuvent décider comment évoluer de manière interactive avec des modèles de plantes et les déployer dans des environnements plus vastes.


Comment utiliser ChatPaper ?

La méthode d'utilisation de ChatPaper est très simple. Ouvrez la page d'accueil d'AMiner et entrez dans la page ChatPaper à partir de la barre de navigation en haut de la page ou dans le coin inférieur droit.
insérez la description de l'image ici
Sur la page ChatPaper, vous pouvez choisir d'avoir un dialogue basé sur un seul document ou un dialogue basé sur l'ensemble de la bibliothèque (bibliothèque personnelle), et vous pouvez choisir de télécharger un PDF local ou de rechercher directement des documents sur AMiner.

Je suppose que tu aimes

Origine blog.csdn.net/AI_Conf/article/details/131824809
conseillé
Classement