实时追踪科研动态丨7.19精选新论文,附ChatPaper综述

作为科研人员,每天需要检索和浏览大量的学术文献,以获取最新的科技进展和研究成果。然而,传统的检索和阅读方式已经无法满足科研人的需求。

ChatPaper,一款集检索、阅读、知识问答于一体的文献知识工具。帮助你快提高检索、阅读论文效率,获取最新领域研究动态,让科研工作更加游刃有余。
在这里插入图片描述

结合前沿动态订阅功能,精选arXiv当日热门新论文,形成论文综述,让大家更加快速了解前沿动态。

如果想要对某篇论文进行深入对话,可以直接复制论文链接到浏览器上或者直达ChatPaper页面:https://www.aminer.cn/chat/g/

2023年7月19日精选新论文列表:

1.Communicative Agents for Software Development

链接:https://www.aminer.cn/pub/64b60eaa3fda6d7f06eaea2a/

ChatPaper综述:文章提出了一种创新的范式,利用大型语言模型(LLMs)在整个软件开发过程中,通过自然语言沟通精简和统一关键流程,从而消除了每个阶段都需要专门的模型的需要。这个范式的核心是ChatDev,一个虚拟的基于聊天的软件开发公司,它模拟了已经建立的瀑布模型,将开发过程细分为设计、编码、测试和文档编写四个不同的时间段。每个阶段都涉及到一个团队的代理人,如程序员、代码审查人员和测试工程师,促进协作对话并促进无缝工作流程。聊天链作为一个促进者,将每个阶段分解为原子子任务。这使得双重角色成为可能,通过上下文感知的交流提出和验证解决方案,从而高效解决具体的子任务。ChatDev的实证分析凸显了它在软件生成方面的显著有效性,使得整个软件开发过程可以在不到七分钟的时间内以不到一美元的成本完成。它不仅能够识别和缓解潜在的漏洞,还能纠正潜在的错觉,同时保持了良好的效率和成本效益。ChatDev的潜力揭示了将LLMs整合到软件开发领域的新机会。

2.Llama 2: Open Foundation and Fine-Tuned Chat Models

链接:https://www.aminer.cn/pub/64b758dd1a5852438b7976ff/

ChatPaper综述:Llama 2是一种经过预训练和精调的大型语言模型(LLMs)集合,其参数范围从70亿到700亿。其中,经过精调的LLM称为Llama 2-Chat,专门针对对话使用情况进行了优化。在我们测试的大多数基准测试中,我们的模型在性能上优于开源聊天模型,并根据我们进行的有关有用性和安全性的人类评估,可能是封闭源模型的合适替代品。我们详细描述了我们对Llama 2-Chat的精调和安全改进方法,以便使社区能够在我们的基础上进行工作并为LLM的负责任开发做出贡献

3.Augmenting CLIP with Improved Visio-Linguistic Reasoning

链接:https://www.aminer.cn/pub/64b76c703fda6d7f068eecf3/

ChatPaper综述:论文指出了现有的对比图像-文本模型在合成视觉-语言任务(如Winoground)上的性能问题,其性能相当于随机猜测。然后,论文提出了一种名为SDS-CLIP的方法,通过从文本到图像生成模型(如Stable-Diffusion)中蒸馏目标来使用可微分的图像参数化对CLIP进行微调,从而提高了CLIP的合成视觉-语言推理能力。在具有挑战性的Winoground合成推理基准测试中,该方法使不同CLIP模型的绝对视觉-语言性能提高了最多7%,而在ARO数据集上,该方法使视觉-语言性能提高了最多3%。通过将视觉-语言推理引入CLIP,还发现了在各种下游数据集上零样本性能的轻微改进。该方法强调了可以利用来自生成模型的精心设计的蒸馏目标来扩展现有的对比图像-文本模型,并提高其视觉-语言推理能力。

4.How is ChatGPT’s behavior changing over time?

链接:https://www.aminer.cn/pub/64b76c6a3fda6d7f068ee31b/

ChatPaper综述:文章指出GPT-3.5和GPT-4这两个大型语言模型(LLM)服务的行为会随着时间而发生改变。作者通过评估GPT-3.5和GPT-4在四个不同任务上的表现来支持这一观点:1)解决数学问题,2)回答敏感/危险问题,3)生成代码,4)视觉推理。研究发现,无论是GPT-3.5还是GPT-4的性能和行为在不同时间段会有很大变化。例如,GPT-4(2023年3月)在寻找质数方面表现非常好(准确率为97.6%),但是GPT-4(2023年6月)在同样的问题上表现非常差(准确率为2.4%)。有趣的是,GPT-3.5(2023年6月)在这个任务上比GPT-3.5(2023年3月)表现更好。在6月份,GPT-4不愿回答敏感问题的意愿较3月份更低,而且GPT-4和GPT-3.5在代码生成方面在6月份比3月份更容易出现格式错误。总的来说,这些发现表明同一个LLM服务的行为在相对短的时间内可能发生显著变化,强调了对LLM质量的持续监测的必要性。

5.DS-Fusion: Artistic Typography via Discriminated and Stylized Diffusion

链接:https://www.aminer.cn/pub/6417d04090e50fcafd83db60/

ChatPaper综述:介绍了一种新方法来自动生成艺术字体,通过对一个或多个字体进行样式化,以视觉方式传达输入单词的语义,同时确保输出仍然可读。为了应对我们面临的各种挑战,包括冲突的目标(艺术化风格化 vs. 可读性),缺乏基准数据以及巨大的搜索空间,我们的方法利用大型语言模型来对文本和视觉图像之间的样式化进行建模,并构建一个无监督的生成模型,其骨干是扩散模型。具体而言,我们采用了潜在扩散模型(LDM)中的去噪生成器,并通过基于CNN的鉴别器将输入样式适应到输入文本上。鉴别器使用给定字体的栅格化图像作为真样本,将去噪生成器的输出作为假样本。我们的模型被称为DS-Fusion,其中DS代表鉴别和样式化扩散。我们通过大量示例、定性和定量评估以及消融研究展示了我们方法的质量和多功能性。通过与包括CLIPDraw和DALL-E 2在内的强基线和艺术家制作的字体进行用户研究,证明了DS-Fusion的强大性能。从标题和摘要可以得出,本论文解决了将艺术风格与可读性相结合的自动生成艺术字体的问题。

6.NU-MCC: Multiview Compressive Coding with Neighborhood Decoder and Repulsive UDF

链接:https://www.aminer.cn/pub/64b76c6a3fda6d7f068ee3b5/

ChatPaper综述:指出了MCC方法在单视角RGB-D输入下的三维重建领域存在两个关键问题:1)Transformer解码器在处理大量查询点时效率低下;2)三维表示难以恢复高保真度的细节。为了解决这些问题,文中提出了一种名为NU-MCC的新方法。NU-MCC包括两个关键创新:邻域解码器和斥力无符号距离函数(Repulsive UDF)。首先,邻域解码器引入中心点作为输入视觉特征的有效代理,使每个查询点只能与一个小邻域相关联。这种设计不仅提高了推理速度,还可以利用更精细的视觉特征来改善三维纹理的恢复效果。其次,Repulsive UDF是MCC中使用的占用场的一种新颖替代品,显著改善了三维物体重建的质量。与结果中存在空洞的标准UDFs相比,我们提出的Repulsive UDF可以实现更完整的表面重建。实验结果表明,NU-MCC能够学习到强大的三维表示,在单视角三维重建领域取得了显著的进展。特别地,它在CO3D-v2数据集上的F1得分比MCC高出9.7%,同时运行速度更快,提升了5倍以上。

7.Biomaker CA: a Biome Maker project using Cellular Automata

链接:https://www.aminer.cn/pub/64b76c703fda6d7f068eed4c/

ChatPaper综述:介绍了一个名为Biomaker CA的项目,该项目使用细胞自动机(Cellular Automata)来模拟生物群落的生成。在Biomaker CA中,形态发生是重中之重,小种子需要在养分匮乏的环境中成长为类植物生物以生存,并最终以变异的方式进行繁殖,以维持生物群落的长期生存。通过在2D网格上使用细胞自动机规则来模拟复杂的生物群落,并通过Python JAX框架在GPU上并行计算。该项目允许使用不同种类的环境和"物理规律",以及不同的模型架构和突变策略。作者进一步分析了一些配置,展示了植物个体如何生长、存活、繁殖和进化,形成稳定和不稳定的生物群落。然后,作者展示了如何通过端到端的元进化或更为精确和高效的方法(称为Petri Dish元进化)来使模型在恶劣环境中存活。最后,作者展示了如何进行交互式进化,即用户可以决定如何与植物模型互动地进行进化,并将其部署在更大的环境中。


如何使用ChatPaper?

使用ChatPaper的方法很简单,打开AMiner首页,从页面顶部导航栏或者右下角便可进入ChatPaper页面。
在这里插入图片描述
在ChatPaper页面中,可以选择基于单篇文献进行对话和基于全库(个人文献库)对话,可选择上传本地PDF或者直接在AMiner上检索文献。

猜你喜欢

转载自blog.csdn.net/AI_Conf/article/details/131824809