每周 AI 综述:2023年4月12日,一个巨大的计算机视觉GitHub 存储库

一、大型语言模型

1. 写AI提示词已经成为了一个新职业promptengineering

由 Midjourney 和 OpenAI 的 DALL-E 等程序制作的艺术作品出奇地引人注目。这些程序可以将文本提示翻译成字面上(和有争议的)获奖艺术。随着工具变得越来越复杂,这些提示本身就成了一门手艺。与任何其他手工艺品一样,一些创作者已开始将它们出售。

2.普林斯顿大学的一位教授问道,人工智能是否会被恶意内容影响?

如今用于说明人工智能文章的图像已经具有误导性和不准确性。如果新闻媒体转向使用文本转换图像工具来生成插图,就有可能产生一个有害的反馈循环,人工智能工具被用来生成误导性的人工智能图像,这些图像被用于炒作,并被用作未来模型的训练数据。

在语言模型中也发现了类似的问题,其中训练数据集受到了机器生成文本的污染。稳定扩散确实应用了一种隐形水印,可以潜在地用于过滤掉机器生成的图像。然而,文本到图像工具数量的快速增长和标准化水印的缺乏可能会使这一过滤步骤复杂化。如上所述,改进这些工具的另一种方法可能是减少训练数据中的库存图像数量。

3.ChatGPT是废话生成器吗?人类通常是胡说八道吗?需要进一步研究。

哲学家哈里·法兰克福(Harry Frankfurt)将“胡说八道”定义为不考虑真相而旨在说服人的言论。按照这个标准,OpenAI的新聊天机器人ChatGPT是有史以来最扯淡的。大型语言模型(LLMs)被训练成产生貌似合理的文本,而不是真实的语句。ChatGPT非常擅长在任何可以想到的话题上听起来令人信服。但OpenAI很清楚,在训练过程中没有真相的来源。这意味着,在教育或回答健康问题等

猜你喜欢

转载自blog.csdn.net/iCloudEnd/article/details/130100700