推特爆火!揭晓大模型的未来何去何从

8bbf0ffd9d5293b6bc44fbd35b9a348b.png

文 | 智商掉了一地

巨大挑战 or 发展契机,ChatGPT 和 GPT-4 出现后,大模型的未来方向该何去何从?

近期,自然语言处理领域的快速发展引起了广泛的关注,尤其是大型语言模型(LLM)的兴起已经推动了该领域的发展,并引起了研究者和业界人士的格外关注。其中,ChatGPT 和 GPT-4 作为 GPT 系列的最新版本,已经成为当前最先进的自然语言处理与多模态工具之一。在这个背景下,我们不得不思考这些大型语言模型的能力、应用前景以及相关的伦理问题。

前几天在推特引起广泛讨论的一篇论文提供了有价值的见解,为研究 ChatGPT 和 GPT-4 提供了全面的综述。本文对这些大型语言模型的最新发展进行了深入分析,并探讨了它们在多个领域的应用前景,如教育、历史、数学、医学和物理等。此外,论文还提供了有关 ChatGPT 的能力和伦理问题的重要观点,为我们进一步思考这些技术的未来提供了有价值的参考。

在这里将分享这篇文章中的一些主要观点,提供关于 ChatGPT 和 GPT-4 的最新信息和洞见。希望可以让打开这篇文章的你了解当前最先进的大模型技术提供有价值的参考,并激发对于这一领域未来的思考和探索。

论文题目:
Summary of ChatGPT/GPT-4 Research and Perspective Towards the Future of Large Language Models

论文链接:
https://arxiv.org/abs/2304.01852


背景探索

大型语言模型发展的一个重要里程碑是 InstructGPT,该框架允许根据人类反馈的强化学习(RLHF)对预训练语言模型进行指导微调,使 LLM 可以适应各种NLP任务,高度灵活。RLHF 能够使模型与人类偏好和价值观相一致,从而显著提高其性能。ChatGPT 是 InstructGPT 的后继者,自去年 12 月发布以来,已经配备了先进的开发,表现出色,广泛应用于教育、医疗保健、人机交互、医学和科学研究等领域。ChatGPT 已经引起了广泛的关注和兴趣,越来越多的应用和研究正在利用其潜力。多模态 GPT-4 模型的开放发布进一步扩展了大型语言模型的视野,赋予了涉及文本之外的多样化数据的激动人心的发展。

这篇文章旨在全面调研 ChatGPT 的现有研究以及其在各个领域中的潜在应用。为达成这一目标,作者对 arXiv 上与 ChatGPT 相关的论文进行了深入分析。截至本月初(2023 年 4 月 1 日),在 arXiv 上一共有 194 篇提及 ChatGPT 的论文,这里对这些论文进行了趋势分析,并生成了一个词云来可视化常用词汇。此外,他们还考察了这些论文在各个领域中的分布情况并提供了相应的统计数据。

253b3807abd5e877bf93099a4531e8cc.png
▲图1 研究人员每天提交的论文数量

图 1 显示了与 ChatGPT 相关的论文每天提交数量的趋势,表明该领域的兴趣正在增长。

d37dde7f2e68cb7e030dd364288f102b.png
▲图2 全部194篇论文的词云分析

图 2 展示了所有论文的词云分析结果。可以观察到目前的研究主要集中在自然语言处理方面,但是在其他领域,如教育和历史等,仍然存在着巨大的研究潜力。这一点也得到了图 3 的支持,它展示了论文在各个领域中的分布情况,强调了在这些领域中进行更多的研究和开发的必要性。

40dcf8f75a1c6d7966c30b5ee2a4c0fa.png
▲图3 提交的论文在各个领域的分布

这里旨在阐明 ChatGPT 具有前景的功能,并深入了解其在未来的潜在影响,包括伦理考虑。通过这个综述,作者希望为这些模型在未来如何改进和扩展提供见解。在接下来的内容中,将回顾与ChatGPT相关的现有工作,包括其应用、伦理考虑和评估。除了讨论与ChatGPT相关的研究现状外,也还将探讨其局限性,最后将为 LLM 的未来发展方向提供指导。

ChatGPT 相关工作

ChatGPT 的应用

1. 问答

  • 教育领域:ChatGPT 作为被广泛应用于教育领域问答测试的人工智能工具,可用于学习、比较和验证物理、数学、化学、哲学、宗教等学术和概念学科的答案。该工具在数学领域的能力测试结果显示,在 Grad Text 数据集中表现最佳,但在 Olympiad-Problem Solving 数据集中表现不佳。研究表明,虽然 ChatGPT 能够理解数学问题,但在提供正确答案方面的表现不如普通数学研究生。在物理学领域,ChatGPT能够解决大学第一学期的物理概念问题,但在处理一些比较模糊的物理概念时表现欠佳。这些研究也表明,ChatGPT 能够辅助学生进行学习,但其答案准确性还有待提高

  • 医疗领域:ChatGPT 的问答功能也可以应用于医疗领域,例如回答患者的医疗问题或协助医护人员诊断疾病。Nov 等人评估了使用 ChatGPT 进行医患沟通的可行性。该实验从电子健康记录中提取了 10 个代表性的医患互动,并将患者的问题放置在 ChatGPT 中,要求 ChatGPT 使用大约与医生回答相同数量的词语来回答问题。每个患者的问题都由医生或 ChatGPT 回答,患者被告知有5个是由医生回答的,5个是由 ChatGPT 生成的,并被要求正确识别回答来源。实验结果显示,正确识别 ChatGPT 回答的概率为 65.5%,而正确识别医生回答的概率为65.1%。此外,实验发现患者对于 ChatGPT 功能的可信度反应属于 weakly positive(平均 Likert 得分为 3.4),并且随着问题中涉及的健康任务复杂度的增加,信任度降低。ChatGPT 对患者问题的回答与医生的回答仅略有不同,但人们似乎比较信任 ChatGPT 回答低风险的健康问题,而对于复杂的医学问题,人们仍然倾向于信任医生的回答和建议。Tu 等人探究了 ChatGPT 在神经病性疼痛诊断中的因果关系发现能力。因果关系发现旨在仅基于观察到的数据揭示潜在未知的因果关系。实验结果发现,ChatGPT 在理解超出现有文本训练数据语料库的新知识和概念方面存在一定的局限性,即它只理解用于描述情况的常用语言,而不理解基础知识。此外,其性能一致性和稳定性不高,实验观察到,在多次查询下,它会为同一问题提供不同的答案。然而,尽管 ChatGPT 存在许多限制,我们还是认为它具有改善因果关系研究的巨大潜力。

  • 其他领域:Guo 等人尝试将 ChatGPT 应用于通信领域,具体是使用 ChatGPT 进行有序重要性语义通信,其中 ChatGPT 扮演着智能咨询助手的角色,可以取代人类识别消息中单词的语义重要性,并可以直接嵌入当前通信系统。在消息传输之前,发送者首先使用 ChatGPT 输出每个单词的语义重要性顺序。然后,发射器根据重要性顺序执行不平等误差保护传输策略,以使消息中重要单词的传输更可靠。实验结果表明,嵌入了 ChatGPT 的通信系统中重要单词的误码率和语义损失要比现有的通信方案低得多,表明 ChatGPT 可以很好地保护重要单词并使语义通信更可靠。Wang 等人研究了 ChatGPT 在生成系统性文献搜索的高质量布尔查询方面的有效性,他们设计了广泛的 prompt,并在 100 多个系统性评价主题上研究了这些任务。最终,ChatGPT 生成的查询相比目前最先进的查询生成方法具有更高的准确性,但代价是减少了召回率。对于时间有限的快速审查,通常可以以更低的召回率换取更高的精确性。此外,通过 prompt 指导,ChatGPT 可以生成高搜索精度的布尔查询。但需要注意的是,当两个查询使用相同的 prompt 时,ChatGPT 会生成不同的查询,这表明其在一致性和稳定性方面存在局限性。总体而言,这项研究展示了 ChatGPT 在生成有效的布尔查询方面的潜力。

2. 文本分类

文本分类任务对许多应用都至关重要,包括情感分析、垃圾邮件检测和主题建模。虽然传统的机器学习算法已经广泛用于文本分类,但是自然语言处理的最新进展促进了更高级技术的发展。ChatGPT 在这个领域展现了巨大的潜力。它准确分类文本的能力、处理各种分类任务的灵活性和定制的潜力使其成为文本分类的有价值的工具,这得到了文献中几项研究的证实,包括自动体裁识别、情感计算、立场检测和隐式仇恨言论检测等。

然而,ChatGPT 在许多文本分类任务中表现出色,但仍面临着一些挑战:

  • 由于它严重依赖于训练数据的分布,它很难在稀有或词汇表外的词的分类任务中表现良好

  • 训练和使用ChatGPT所需的大量计算资源可能会限制其在某些应用程序中的使用。

  • 需要大量的训练数据来实现最佳的分类性能,这对于一些应用场景来说可能会很困难,因为可能无法获取足够的数据;

  • ChatGPT 的分类性能还受到训练数据的质量和平衡性的影响,如果训练数据集存在偏差或噪声,那么模型的性能也会受到影响;

  • 另一个挑战是可解释性。由于它是一个基于神经网络的黑盒模型,很难解释它的决策过程和分类结果,这对于某些应用场景来说可能会是一个问题,例如在医疗诊断或法律领域中需要对模型的决策进行解释和验证。

3. 文本生成

这里介绍了一些使用ChatGPT生成不同类型文本的研究,研究人员生成不同长度的文本,包括短语、句子和段落级别。根据不同研究人员的实验,可以将文本生成任务的相关结论总结如下:

  • 在医学领域,通过将三个虚构的放射学报告提供给 ChatGPT 进行简化,展示了简化复杂文本的能力,大多数放射科医生发现简化后的报告准确完整,没有对患者造成潜在危害。然而,当一些错误、关键医学信息的省略和文本段落被识别出来,如果医生没有理解,可能会导致有害的结论。

  • 在与三种商业翻译产品的对比中,发现 ChatGPT 在资源丰富的欧洲语言方面具有与商业翻译产品相竞争的能力,但在资源匮乏或远距离语言方面落后。虽然 ChatGPT 在生物医学摘要或 Reddit 评论方面的表现不如商业系统,但它可能是一个很好的语音翻译器

  • 在跨语言文本数据集上,ChatGPT在 R1、R2、RL 和 BS 等指标上的摘要概括性能可能较差。

  • 与 fine-tuned 模型相比,ChatGPT 的性能在所有性能指标上略差。

  • 有研究人员比较了在一系列英语和德语诗歌的标记和未标记数据集上训练的 ByGPT5 和 ChatGPT 生成受限制样式诗歌的能力,并使用了三个指标评估它们:押韵,ScoreAlliteration 和 ScoreMeter Score,实验结论是 ByGPT5 表现更好。

  • ChatGPT 可以快速生成和优化文本,帮助用户完成多项任务。然而在生成新内容方面并不理想,最终可以说,如果没有人类的强大干预,ChatGPT 并不是撰写可靠科学文本的有用工具,因为它缺乏准确和完全传达复杂科学概念和信息所需的知识和专业知识

  • ChatGPT 在生成抄袭检测软件不易捕获的复杂文本输出方面具有很大的潜力,现有的抄袭检测软件应该据此更新他们的抄袭检测引擎。

  • 一些实验的参与者无法区分聊天机器人和真人,这凸显了这些人工智能聊天机器人被用于欺骗的可能性

4. 代码生成

代码生成是指从高层次的描述或规范自动生成计算机代码的过程。ChatGPT 具有先进的自然语言处理能力,能够执行代码生成任务。通过分析代码生成的需求,ChatGPT 可以生成准确执行预期功能的代码片段,这不仅节省了从头编写代码的时间和精力,还减少了手动编码可能出现的错误风险。此外,ChatGPT 学习和适应新的编程语言和框架的能力使其能够完成更复杂的编程任务,它可以用于实现一些简单的代码生成任务,也可以用于完成一些复杂的编程任务,如代码解释、建议问题解决的替代方法和不同编程语言之间的代码转换等。但是,ChatGPT 的应用范围受到限制,因为其训练数据偏向于 Python、C++ 和 Java 等编程语言,可能不适合某些编程语言或编码风格,生成的代码也需要手动优化格式和性能,同时生成代码的质量也不能保证,因为它严重依赖于自然语言输入的质量,可能存在错误、歧义或不一致性,最终影响生成代码的准确性和可靠性。

5. 推理

推理是指通过对已知事实或信息进行逻辑演绎而得出新结论或信息的过程。它通常基于一系列前提或假设,并涉及到应用逻辑规则或推理方法来得出结论。推理是人类思维的一种重要能力,经常用于解决问题、决策、分析和评价信息等。推理在科学、哲学、法律等领域也发挥着关键作用。

推理有两种类型:

  • 归纳推理:涉及从已知事实或经验中推导出一般规则或结论;

  • 演绎推理:涉及从已知前提或假设中得出特定结论。

无论是归纳还是演绎,推理过程都需要遵循严格的逻辑规则,以确保推理的正确性和可靠性。

一些研究使用 ChatGPT 的归纳推理能力来分析文本并打分,如推断推文中的亲密度、情感值以及对隐性仇恨言论的分类等。同时,一些研究也评估了 ChatGPT 在决策制定、空间推理和歧义识别方面的表现,它在决策制定过程中表现出不确定性,有时会通过错误的推理得出正确答案,并且在一些简单的推理问题上会做出次优的决策。在歧义识别方面,ChatGPT 在语义上表现出色,但在性别偏见和缺乏系统性等方面还存在一些问题。总体来说,用 ChatGPT 在处理文本时对上下文的理解十分重要。

6. 数据或信息提取、转换、增强、处理

  • 数据可视化:自然语言界面已经为从自然语言生成可视化图形做出了贡献,但由于自然语言的歧义性,可视化问题仍然具有挑战性。ChatGPT 通过将自然语言转换为可视化代码为该领域提供了一条新途径。在数据可视化方面,Noever 等人使用 Jupyter 测试了 ChatGPT 的基本算术能力,通过将数据的统计分析和可视化问题转化为编程问题,验证了 ChatGPT 能够访问结构化和组织良好的数据集,执行数据库所需的四个基本软件操作:创建、读取、更新和删除,并生成适当的 Python 代码绘制适当的图形和分析数据。Maddigan 等人提出了一种用于从自然语言中可视化数据的端到端解决方案,使用 LLM 来生成适当的提示,以使 LLM 更有效地理解自然语言,并使用内部推理能力来选择适当的可视化类型生成代码。研究者们在 nvBench SQLite 数据库和能源生产数据集的情况下比较了 GPT-3、Codex 和 ChatGPT 的可视化结果,以及在电影数据集上探索了LLM 在提示不足或错误时的推理和假设能力。实验结果表明,当支持提示时,LLM 可以有效地支持从自然语言生成可视化结果的端到端生成,提供了一种高效、可靠和准确的解决方案。

  • 信息提取:信息提取的目标是从自然语言文本中提取特定的信息,以结构化的形式呈现。信息提取包括实体关系抽取、命名实体识别和事件提取三个重要的子任务,在商业、医疗和其他领域有广泛的应用。其中,ChatIE 是一种基于 ChatGPT 的多轮问答框架,能够成功解决复杂的信息提取任务。该框架在 6 个数据集上的实验结果表明,相比于没有 ChatIE 的原始 ChatGPT,平均提高了 18.98% 的性能,并在NYT11-HRL数据集上表现优于监督模型FCM和MultiR。另外,本部分还介绍了其他一些关于使用 ChatGPT 进行信息提取的研究,如在 ACE2005 数据集上进行事件提取的研究、在 Gene Association Database 和 EU-ADR 数据集上进行命名实体识别和关系提取的研究、以及使用 ICL-D3IE 和 ChatExtract 方法进行信息提取的研究等。

  • 质量评估:对于翻译和文本生成的质量,传统的人工评判存在主观性和耗时等问题。通过探索发现,ChatGPT 在自动质量评估方面也取得了显著的性能。在翻译质量评估方面,Kocmi 等人提出了一种基于 GPT 的评估度量(GEMBA),通过对每个片段的翻译进行评估,然后对所有得分进行平均以得出最终的系统级得分。在 MQM2022 测试集上,在七个 GPT 模型中,ChatGPT 的准确性在 80% 以上。在最不受限制的模板中,可以获得最佳性能,这表明 LLM 在翻译质量评估任务中具有潜力,但该评估仅适用于系统级别,需要进一步改善。Wang 等人使用 ChatGPT 作为自然语言生成(NLG)评估器来研究与人类判断之间的相关性。在覆盖不同 NLG 任务的三个数据集中,设计了任务和方面特定的提示来指导 ChatGPT 进行 CNN / DM, OpenMEVA-ROC 和 BAGEL 的 NLG 评估。然后,计算 Spearman 系数、Pearson 相关系数和 Kendall's Tau 得分来评估与人类评估的相关性。结果显示, ChatGPT 在所有方面都与人类判断高度相关,所有类别的相关系数均为 0.4 或更高,显示其作为 NLG 指标的潜力。

  • 数据增强:在自然语言处理中,文本数据增强是缓解数据量低、训练数据质量低问题的有效措施,ChatGPT 在这方面显示出巨大潜力。Dai 等人提出了一种基于 ChatGPT 的文本数据增强方法,该方法通过将训练样本中的每个句子重新表述为多个在概念上相似但在语义上不同的样本,用于 BERT 模型下游的分类任务。该论文在文本转录和 PubMed 20k 数据集上进行了实验,并与多个数据增强方法的余弦相似性和 TransRate 指标进行了比较。结果表明,与现有的数据增强方法相比,ChatAug 方法在句子分类准确性上提高了两位数,并生成了更多样化的增强样本,同时保持其准确性。但该论文未对原始模型进行微调,并且缺乏领域知识,可能会产生不正确的增强数据。

  • 多模态融合:ChatGPT 结合跨模态编码器,将自然语言与跨模态处理相结合,提供智能交通、医疗保健等领域的解决方案。Wu 等人提出了一种 Visual ChatGPT 框架,将不同的视觉基础模型(VFM)与 ChatGPT 相结合,并组合一系列提示将视觉信息输入到 ChatGPT 中以解决视觉问题。通过展示一些视觉任务的例子,如从图像中移除或替换某些对象,图像与文本之间的互相转换等,证明了 Visual ChatGPT 在不同任务中具有巨大的潜力和能力。但是,该任务存在一些问题,需要大量提示将VFM转换为语言,调用多个 VFM 解决复杂问题,导致实时能力有限,存在安全和隐私问题。另外,该部分还介绍了一些例子展示了 LLM(语言-文本-图像)的潜力,如使用 LLM 从加利福尼亚州的事故新闻中提取自动驾驶汽车事故数据,并生成基于关键字的事故报告。然而如何进一步利用提示与 ChatGPT 有效交互、缺乏处理和分析来自传感器等设备的数据的能力,以及数据隐私和安全等问题仍然存在

  • 线索工程:线索工程为与大型语言模型的有效对话提供了重要支持。White 等人提出了一个适用于不同领域的线索模型框架,该框架通过提供特定的规则和指导方针来构建与 LLM 交互的线索。此外,他们还介绍了已应用于 LLM 交互的提示模式的目录,以及有线索和没有线索的具体示例,展示了提示模式的可组合性的优点,允许用户更有效地与 LLM 交互,但是需要不断探索可复用解决方案的模式和使用 LLM 的新方法。

  • 与人协作:人类和机器可以共同达成一个共同的目标,其中人类提供领域专业知识、创造力和决策能力,而机器提供自动化、可扩展性和计算能力。ChatGPT 可以理解和生成人类语言,从而降低沟通成本,提高人机协作的效率。ChatGPT 可以提供相关建议,根据人类的输入完成任务,并增强人类的生产力和创造力。它可以从人类的反馈中学习并适应新的任务和领域,进一步提高其在人机协作中的性能。ChatGPT 的能力使其成为各种协作应用程序的有价值的工具,如 Ahmad 等人提出的使用 ChatGPT 创建软件架构的人机协作方法,以及Lanzi等人提出的将 ChatGPT 和交互进化结合起来模拟人类设计过程的协作设计框架。未来,ChatGPT 理解非语言暗示(如语气和身体语言)的能力可以得到加强,使其更好地理解人类思想并更有效地与人类互动

  • ChatGPT 与应用整合:ChatGPT 可以作为整体的一部分或者作为整合工具来实现不同系统之间的无缝沟通。ChatGPT 具备自然语言处理的能力,使非技术用户能够更轻松地与系统进行交互,减少了对专业知识或培训的需求。本文引用了文献中的两个研究,说明了 ChatGPT 在编程查询问题和医疗图像 CAD 网络方面的整合应用效果,并指出了 ChatGPT 在应用整合方面仍然面临的挑战,包括语言障碍、响应的不确定性和处理时间等。

AI伦理

ChatGPT 作为一个强大的自然语言处理模型,虽然它为人们带来了巨大的便利,但也引发了更多的危机意识。一些研究者已经开始研究 ChatGPT 可能带来的负面影响,并提出了标准化构建的良好建议来应对未来的 AI 滥用问题。在评估 ChatGPT 自身的政治和伦理倾向方面,Hartmann 等人通过使用 Wahl-O-Mat 向 ChatGPT 展示了不同政党的政治观点,并强迫其进行同意、不同意或中立的选择,发现 ChatGPT 具有亲环境、左翼自由主义意识形态,这一结果也在国家不可知的政治罗盘测试中得到了证实。另一项研究则通过反复向 ChatGPT 提出不同版本的电车问题,检查 ChatGPT 的道德标准,发现 ChatGPT 给出了不同的道德取向的答案,缺乏坚定的道德立场。一项后续测试还发现,ChatGPT的不一致性可能会影响人们的道德判断。此外,Borji 等人还展示了 ChatGPT 在 11 个相关方面的推理不一致性、事实错误、数学、编码和偏见,这些发现突显了 ChatGPT 的固有特点和局限性,人们在寻求 ChatGPT 的建议时应该注意它们的潜在影响。综上所述,ChatGPT 在 AI 伦理方面存在一些值得关注的问题,需要引起研究者和使用者的重视。

Hacker 等人提出大型生成型 AI 模型的本质和规则正在快速改变我们的交流、解释和创造方式,建议不同价值链中的利益相关者承担监管责任,并采取四项策略为社会制定更全面的法律。另一项研究批评了欧洲委员会关于 AI 责任的建议,并建议修订 AI 责任框架以确保有效的补偿,同时促进创新、法律确定性和可持续的AI监管。还有一项政策框架的提出强调了在社会可接受和安全的情况下定制大型语言模型(LLMs),并强调了需要将大型语言模型与人类偏好相一致。ChatGPT 的政治和伦理倾向可能会在一定程度上影响用户的行为和决策。然而,一些研究对使用规范和限制进行了深入研究,这可能使人们更加合理和安全地使用 ChatGPT。

评价

ChatGPT 与现有流行模型的比较

在多任务、多语言和多模态方面,ChatGPT 表现出色。但是在低资源语言、多模态稳定性和负面情感相似性方面,ChatGPT的表现相对较差。另外,ChatGPT 对于一些复杂的推理任务和命名实体识别任务的处理能力也不足。总的来说,ChatGPT 的零样本表现与 Fine-tuned BERT 和 GPT-3.5 模型相当,但仍无法超越当前 SOTA 模型。

使用 ChatGPT 进行抄袭和作弊的可能性

由于 ChatGPT 生成文本的能力越来越容易获得和扩展,因此有很高的可能性这些技术将被用于抄袭,包括科学文献和新闻来源,对各种形式的新闻媒体和学术文章的可信度构成了巨大威胁。许多学者担心纸质文献作为有效的评估工具的终结即将来临,因为 ChatGPT 可以轻松生成任何给定主题的有说服力的段落、章节和论文。此外,它将加剧许多领域的抄袭问题,如教育、医学和法律,并可能被用于学术考试作弊。为了解决这个问题,提出了一些解决方案,例如采用定义性识别技术来检测抄袭,并使用新的数据集。同时,提出了指导 ChatGPT 通过提问来生成一些批判性思考问题的解决方案,并对其进行答案和批判性评估,以避免在学术考试中的作弊行为。这个分析还表明,ChatGPT 具有批判性思考和高度逼真的文本生成能力,包括准确性、相关性、深度、广度、逻辑性、说服力和原创性。因此,教育工作者必须意识到 ChatGPT 可能被用于考试作弊,并采取措施来打击作弊行为,确保在线考试的公平性。

ChatGPT 的用户反馈

Haque等人对ChatGPT用户反馈的研究中,提取了 Twitter 数据,并构建了 ChatGPTTweet 数据集,其中包含 18k 条推文,每条推文都包含文本内容、用户位置、职业、认证状态、发布日期和标签等信息。作者通过研究这个数据集,回答了三个问题:

  • 早期 ChatGPT 用户的特点;

  • ChatGPT 相关的 Twitter 讨论主题;

  • 用户对 ChatGPT 的情感

研究发现,早期 ChatGPT 用户具有多样性的职业背景和地理位置,并且涉及到与 ChatGPT 相关的讨论主题有9个,其中大多数用户对软件开发和创意等主题表达了积极的情感,只有少数用户对 ChatGPT 的潜在误用表示担忧。

ChatGPT对用户的不利影响

关于 ChatGPT 对用户的负面影响,Luan 等人研究了 ChatGPT 的心理学原理,深入研究了吸引用户注意力的因素,揭示了这些因素对未来学习的影响。疫情后,教师和学生都面临着教学过程的不确定性和工作压力。在这些教育和就业的共同约束下,教育者和学生必须重新评估当前的教育方法和结果,以及学生未来的职业发展。通过 ChatGPT 的问答交流,人们可以轻松获得合适的解决方案或关键信息,从而增强学习动力,消除学习焦虑,提高学习兴趣,获得心理满足。Subhash 等人探讨了大型语言模型是否具有反转用户偏好的能力。随着预训练大型语言模型的发展,人们越来越关注这些模型在极端情况下影响、说服和潜在操纵用户偏好的能力。因此,还有文献粗略定性分析,对抗性行为确实会导致对话系统中用户偏好和行为的潜在变化。如果想进一步定量分析大型语言模型在这方面的能力,就要在未来的研究中使用额外的统计总结技术。

限制

  • 过时的知识:目前的模型是在历史数据上(截至 2021 年)进行训练的,因此缺乏对时事的实时理解。在当今信息爆炸的时代,这是一个关键问题,因为先验知识库的可靠性逐渐降低,可能会产生不准确的响应,特别是在快速发展的领域,如法学和技术。此外,这些模型无法进行事实核查,而训练数据是由各种来源的内容组成的,其中一些内容可能是不可靠的,这可能会导致看似合理但毫无意义的反应。

  • 理解不足:虽然这些模型可以解释大多数查询和上下文情况,但在处理模糊或上下文复杂的查询时,它们偶尔会遇到理解偏差。此外,在某些专业领域,独特缩写的丰富加剧了模型的理解挑战,导致不正确和空洞的响应。

  • 能源消耗:这些大规模模型在训练和推理阶段需要大量的计算资源和电力,从而导致能源消耗和碳排放显著增加。因此,这限制了它们的部署和实际应用。

  • 恶意使用:虽然 OpenAI 实施了一系列的限制以减轻模型的有害性,但用户通过精心设计的提示来规避这些限制的情况已经出现,这导致模型产生不良内容甚至将其用于非法商业目的。

  • 偏见和歧视:由于预训练数据的影响,大型语言模型在政治、意识形态和其他领域存在偏见。因此,在公共领域中应用大型语言模型,如教育和宣传,应该极为谨慎。

  • 隐私和数据安全:随着用户数量的增加,保护用户隐私和数据安全变得越来越重要。事实上,由于隐私问题,ChatGPT在四月初被意大利禁用。这尤其关键,因为模型在交互过程中广泛收集个人信息和偏好,并且未来的多模态模型,如GPT-4,可能经常需要用户上传私人照片。

未来的发展方向

未来的研究发展应该着重解决目前 ChatGPT 和 GPT-4 的局限性以提高它们的实际应用。

  1. 研究人员应继续完善模型训练方法,同时过滤预训练数据以最小化模型知识库中误导性信息的存在,从而获得准确的回答。此外,重视经济化计算资源的训练方法,以减少成本并扩大潜在的应用场景。

  2. 上下文感知和消歧技术的进步预计将有助于提高模型对复杂查询的理解能力,从而提高人工智能生成内容的准确性、相关性和上下文感知能力。整合实时数据流也可以使这些模型与当前事件和趋势保持同步,使它们能够提供最新的信息,例如实时交通、天气和股票更新。

  3. 开发人员应与来自不同领域的专家进行跨学科合作,包括政策制定、法学和社会学,旨在制定用于 LLM 开发、部署和利用的标准和伦理框架,从而缓解潜在的有害后果。在公众意识和教育方面,应在大规模公共部署和应用之前实施必要的意识培训,以增加公众对 LLM 能力和局限性的了解,同时促进负责任和知情的使用,特别是在 K-12 教育和新闻业等行业。

  4. ChatGPT 和 GPT-4 的影响不应局限于自然语言处理领域。它们在计算机视觉、仿生人工智能和机器人领域也显示出有前途的前景。这些模型表现出与人类智能水平相当的学习和理解能力,将它们定位为人工通用智能(AGI)发展的关键组成部分。它们在人类和机器人之间实现无缝交互的能力为执行更复杂的任务铺平了道路。这些模型的零样本上下文学习能力可以快速适应新任务,而无需标记数据进行微调,这在医学信息学和机器人学等领域是一个重要挑战,其中标记数据的可用性通常有限或不存在。

小结

这篇综述全面介绍了 ChatGPT 和 GPT-4,突出了它们在自然语言处理领域的潜在应用和重要贡献。研究结果表明,这些模型的研究兴趣正在迅速增长,并且它们已经显示出在各个领域都有巨大的应用潜力。这些模型之所以能够取得成功,其中一个关键因素是它们能够进行大规模的预训练,从互联网上获取海量的知识,使模型能够从大量的数据中学习。引入人类反馈的强化学习进一步增强了模型的适应性和性能,使其在处理自然语言时高效快捷。同时还发现了与 ChatGPT 和 GPT-4 开发和使用相关的几个潜在的伦理问题。例如,存在有关生成偏见或有害内容、侵犯隐私和技术滥用的担忧,解决这些问题并确保以负责任和具有伦理的方式开发和使用 ChatGPT 和 GPT-4 至关重要。此外,本研究的结果表明,ChatGPT 和 GPT-4 在教育、历史、数学、物理等领域都有巨大的潜力,这些模型可以促进生成摘要、回答问题和为用户提供个性化建议等任务。总而言之,本篇综述提供了一份有用的指南,可供研究人员和从业者参考,以推进自然语言处理领域的发展。ChatGPT 和 GPT-4 的出现,为自然语言处理领域注入了新的活力和希望,未来在这个领域的研究应该集中在解决伦理问题、探索新的应用场景以及确保它们负责任和具有伦理的使用。这些模型在颠覆自然语言处理方面的潜力巨大,我们期待能够看到更进一步的发展。

692973a2c5ab5c141b9bc00f0e731443.png

卖萌屋作者:智商掉了一地

北理工计算机硕士在读,近期沉迷于跟 ChatGPT 唠嗑,对一切新颖的 NLP 应用充满好奇,正在努力成为兴趣广泛的斜杠青年~

作品推荐

  1. 我是粉红猪佩奇,我要把粉色吹风机写进 IJCAI 论文!

  2. AI取代人类,可以自动生成prompt了

  3. ICLR 2023 最高分论文被锤抄袭??

  4. AI讲话总爱“结巴”?这篇NeurIPS论文找到了病因,结巴率已接近人类!

  5. 如何提升大规模Transformer的训练效果?Primer给出答案

  6. Yoshua Bengio:我的一生

f04981c6575d89c80042e838439f3e6d.jpeg后台回复关键词【入群

加入卖萌屋NLP、CV、搜推广与求职讨论群

猜你喜欢

转载自blog.csdn.net/xixiaoyaoww/article/details/130097494
今日推荐