ChatGPT 究竟在做什么?它为何能做到这些?(2)

机器学习和神经网络的训练

到目前为止,我们一直在讨论那些 “已经知道” 如何完成特定任务的神经网络。但是,神经网络之所以如此有用(估计也是在大脑中),是因为它们不仅是可以完成各种任务,而且可以逐步 “根据实例训练” 来完成这些任务。

在制作一个区分猫和狗的神经网络时,实际上不需要写一个程序来(比如说)明确地找到胡须;相反,我们只需要展示大量关于什么是猫和什么是狗的例子,然后让网络从这些例子中 “机器学习” 如何去区分它们。

重点是,训练后的网络根据它所看到的特定例子进行“概括”。正如我们在上面看到的,这并不是简单地让网络识别它所看到的猫咪图像的特定像素模式;而是让神经网络以某种方式设法在我们认为是某种 “一般猫特性” 的基础上区分图像。

那么,神经网络的训练究竟是如何进行的呢?从本质上讲,我们一直在努力寻找能够使神经网络成功重现我们所给的例子的权重。然后,我们依靠神经网络以 “合理” 的方式在这些例子之间进行 “插值”(或 “概括”)。

下面看一个比上面的最近点问题更简单的问题。尝试只让一个神经网络学习函数:

这个任务中,我们需要一个只有一个输入和一个输出的网络,比如:

但我们应该使用什么权重,等等?在每一组可能的权重下,神经网络都会计算出一些函数。例如,这里是它用几组随机选择的权重得到的结果:

我们可以清楚地看到,在这些情况下,结果甚至都没有接近再现我们想要的函数。那么,我们如何找到能够重现该函数的权重呢?

基本的想法是提供大量的 “输入→输出” 的例子来 “学习” —— 然后尝试找到能重现这些例子的权重。下面是用数量逐渐增多的例子得到的结果:

这个 “训练” 中的每个阶段会逐步调整网络中的权重——最终得到一个能成功重现我们想要的函数的网络。那么,如何调整权重呢?基本的想法是在每个阶段看看离得到我们想要的函数 “有多远”,然后以这样的方式更新权重,使之更接近。

为了知道 “我们离得多远”,可计算一个通常被称为 “损失函数”(或有时称为 “成本函数”)的函数。这里使用的是一个简单的(L2)损失函数,它只是得到的值与真实值之间的差异的平方之和。随着我们训练过程的进展,损失函数逐渐减少(遵循一定的 “学习曲线”,不同的任务是不同的) —— 直到我们达到一个点,网络(至少是一个很好的近似值)成功再现了我们想要的函数:

最后要解释的重要部分是如何调整权重以减少损失函数。损失函数提供了得到的值与真实值之间的 “距离”。但是 “得到的值” 在每个阶段都是由当前版本的神经网络和其中的权重决定的。但现在想象一下,这些权重是变量 —— 比如说wi。我们想找出如何调整这些变量的值,以使取决于这些变量的损失最小。

例如,想象一下(对实践中使用的典型神经网络进行了极大简化),我们只有两个权重 w1 和w2。那么,作为 w1 和w2的函数可能有一个损失,看起来像这样:

数值分析提供了各种技术来求这种情况下的最小值。但一个经典的方法是,从之前的 w1, w2开始,逐步遵循最陡峭的下降路径:

就像水从山上流下来一样,能保证的是这个过程最终会在地表的某个局部最小值(“一个山湖”);但它很可能达不到最终的全局最小值。

在 “权重景观” 上找到最陡峭的下降路径的方法看上去可行性不高。但是,微积分可以帮助我们。之前也提到过,我们可以把神经网看作是在计算一个数学函数 —— 取决于它的输入和权重。现在对这些权重进行微分。事实证明,微积分的连锁法则实际上可以让我们 “解开” 神经网中连续几层所做的运算。其结果是,我们可以 —— 至少在某些局部近似中 —— “反转” 神经网的操作,并逐步找到使与输出相关的损失最小的权重。

上图显示了在只有 2 个权重的超简单情况下,我们可能需要做的最小化工作。但事实证明,即使有更多的权重(ChatGPT 使用了 1750 亿个),仍有可能做到最小化,至少在某种程度上是近似的。事实上,2011 年左右发现的关于 “深度学习” 的重大突破与以下内容有关:从某种意义上说,做(至少是近似)最小化时,涉及大量权重情况下的运算比数量更少的权重更容易。

换句话说 —— 虽然有点反直觉 —— 用神经网络解决复杂的问题比简单的问题更容易。其大致原因似乎是,当一个人有很多 “权重变量” 时,他有一个高维空间,有 “很多不同的方向”,可以把他引向最小值 —— 而如果变量较少,则更容易陷入一个局部最小值(“山湖”),因为没有 “方向可以出去”。

要指出的是,在一般情况下,有许多不同的权重集合,它们都能使神经网络具有几乎相同的性能。而在实际的神经网络训练中,通常会有很多随机的选择,导致 “不同但等价的解决方案”,就像这些:

但每一个这样的 “不同的解决方案” 至少会有轻微的不同。如果我们要求,比如说,在我们提供训练实例的区域之外进行 “外推”,我们可以得到大相径庭的结果:

但是哪一个是 “正确的” 呢?真的没有办法判断。它们都 “与观察到的数据一致”。但它们都对应着不同的 “先天” 方式来 “思考” 如何在 “盒子外” 做什么。对我们人类来说,有些结果可能比其他的看起来 “更合理”。

神经网络训练的实践与理论

在过去的十年里,我们在训练神经网络的方法上取得了许多进展。而且,这基本就是一门艺术。有时,特别是在回顾中,人们至少可以看到运行过程中有一丝 “科学解释” 的影子。但大多数情况下,都是通过试验和错误发现的,通过增加想法和技巧,逐步建立一个关于如何使用神经网络的重要方法。

有几个关键部分。首先,对于一个特定的任务,应该使用什么架构的神经网络。然后,还有一个关键问题,即如何获得训练神经网络的数据。而且,越来越多的情况下不是从头开始训练一个网络的问题:相反,一个新的网络可以直接纳入另一个已经训练好的网络,或者至少可以使用该网络为自己产生更多的训练实例。

有人可能认为,对于每一种特定的任务都需要一个不同的神经网络结构。但我们也发现,即使是对于明显不同的任务,相同的架构似乎也能发挥作用。在某种程度上,这有点像通用计算的想法(https://www.wolframscience.com/nks/chap-11--the-notion-of-computation#sect-11-3--the-phenomenon-of-universality,以及我的计算等价原则,https://www.wolframscience.com/nks/chap-12--the-principle-of-computational-equivalence/),但是,我们后面也会讨论,我认为这更多地反映了这样一个事实,即我们通常试图让神经网络做的任务是 “类似人类” 的,而神经网络可以普遍捕获这些“类似人类的过程”。

在早期的神经网络中,人们倾向于认为应该 “让神经网络尽可能地少做”。例如,在将语音转换为文本时(https://reference.wolfram.com/language/ref/SpeechRecognize.html),人们认为应该首先分析语音的音频,将其分解为音素,等等。但人们发现,至少对于 “类似人类的任务” 来说,通常更好的做法是尝试在 “端到端问题” 上训练神经网络,让它自己 “发现” 必要的中间特征、编码等。

还有一个想法是,我们应该在神经网络中引入复杂的单独组件,让它 “实现特定的算法想法”。但是,事实证明这也不好;相反,最好只是处理非常简单的组件,让它们 “自我组织”(尽管通常是以我们无法理解的方式)来实现(大概)那些算法想法的等价物。

这并不是说没有与神经网络相关的 “结构化思想”。因此,例如具有局部连接的二维神经元阵列似乎至少在处理图像的早期阶段非常有用。而拥有专注于 “回顾序列” 的连接模式在处理人类语言等事物时似乎很有用 —— 我们将在后面看到,例如在 ChatGPT 中。

但神经网络的一个重要特点是,像一般的计算机一样,它们最终只是在处理数据。而目前的神经网络 —— 目前的神经网络训练方法 —— 是专门处理数字阵列的(https://reference.wolfram.com/language/guide/NetEncoderDecoder.html)。但在处理过程中,这些数组可以被完全重新排列和重塑。举个例子,我们上面用来识别数字的网络(https://resources.wolframcloud.com/NeuralNetRepository/resources/LeNet-Trained-on-MNIST-Data/)从一个二维的 “图像” 阵列开始,迅速 “增厚” 到许多通道,但随后 “浓缩” 成一个一维阵列(https://reference.wolfram.com/language/ref/AggregationLayer.html),最终将包含代表不同可能输出数字的元素:

但是如何判断一个特定的任务需要多大的神经网?这是一门艺术。在某种程度上,关键是要知道 “这个任务有多难”。但对于类似人类的任务来说,这通常是很难估计的。可能有一种系统的方法可以通过计算机非常 “机械” 地完成任务。但很难知道是否存在任何技巧或捷径,至少在 “类似人类的水平” 上更容易地完成这项任务。可能需要列举一个巨大的游戏树(https://writings.stephenwolfram.com/2022/06/games-and-puzzles-as-multicomputational-systems/)来 “机械地” 玩某个游戏;但可能有一个更容易(“启发式”)的方法来实现 “人类水平的游戏”。

处理微小的神经网络和简单的任务时,有时可以明确地看到 “从这里不能到达那里”。例如,这是在上一节的任务中用几个小的神经网络似乎能做到的最好的结果:

而情况是,如果网络太小,它就不能再现我们想要的功能。但如果超过一定的规模,它就没有问题了 ——但是需要用足够长的时间和足够多的例子训练它。顺便说一下,这些图片说明了一个神经网络的道理:如果中间有一个 “挤压”,迫使所有东西都通过一个较小的中间神经元数量,那么我们往往可以用一个较小的网络。(值得一提的是,“无中间层” —— 或所谓的 “感知器” —— 网络只能学习本质上的线性函数 —— 但只要有一个中间层,如果有足够的神经元,原则上就可以很好地近似任何函数,尽管为了使其可行地训练,通常需要某种正则化或规范化,https://reference.wolfram.com/language/ref/BatchNormalizationLayer.html)。

好吧,假设我们已经确定了某种神经网络架构。现在有一个问题,就是如何获得数据来训练网络。围绕神经网络和一般机器学习的许多实际挑战都集中在获取或准备必要的训练数据上。在许多情况下(“监督学习”),我们希望可以获得明确的输入和期望的输出的例子。因此,举例来说,人们可能希望通过标签判断图像中的内容。但通常添加这些标签需要花费很多精力。但是很多时候,也可以借助已有内容,或者将已有内容作为所需内容的替代。举例来说,我们可以使用网络上已经有的图片标签作为替代。或者,在另一个领域,我们可以使用为视频创建的封闭式字幕。或者在语言翻译训练中,可以使用不同语言的网页或其他文件的平行版本作为替代。

你需要向神经网络展示多少数据来训练它完成一项特定任务?同样,这很难从第一原理上估计。当然,通过使用 “转移学习” 来 “转移” 诸如已经在另一个网络中学习过的重要特征列表的东西,可以大大降低对数据规模的要求。但一般来说,神经网络需要 “看到大量的例子” 才能训练好。而至少对于某些任务来说,这些例子可能是非常重复的。事实上,向神经网络展示所有的例子是一个标准的策略,一遍又一遍。在每个 “训练回合”(或 “epochs”)中,神经网络至少会处于一个稍微不同的状态,而以某种方式 “提醒” 它某个特定的例子对于让它 “记住那个例子” 是很有用的。(也许这类似于人类记忆中的重复记忆的效果)。

但往往只是反复重复同一个例子是不够的。还需要向神经网络展示这个例子的变化。而神经网络理论的一个特点是,这些 “数据增强” 的变化不一定要复杂才有用。只要用基本的图像处理方法稍微修改一下图像,就可以使它们在神经网络训练中基本上 “像新的一样好”。同样,当人们没有实际的视频等来训练自动驾驶汽车时,人们可以继续从模拟的视频游戏环境中获得数据,而不需要实际的真实世界场景的所有细节。

像 ChatGPT 这样的东西如何呢?它有一个很好的特点,那就是它可以进行 “无监督学习”,这使得它更容易得到用于训练的例子。回顾一下,ChatGPT 的基本任务是找出如何继续给到它的一段文字。因此,为了获得 “训练实例”,我们所要做的就是获得一段文本,并将其结尾遮盖起来,然后将其作为 “训练的输入” —— “输出” 则是完整的、未被遮盖的文本。我们稍后会详细讨论这个问题,但主要的一点是,与学习图片中的内容不同,这种学习不需要 “明确的标签”;ChatGPT 实际上可以直接从它所得到的任何文本例子中学习。

那么神经网络的实际学习过程是怎样的呢?归根结底,这都是为了确定什么权重能够最好地捕捉所给的训练实例。有各种详细的选择和 “超参数设置”(之所以被称为超参数,是因为可以把权重看作是 “参数”),可以用来调整如何完成这一过程。有不同的损失函数选择(平方之和、绝对值之和,等等,https://reference.wolfram.com/language/ref/CrossEntropyLossLayer.html)。有不同的方法来进行损失最小化(每一步要在权重空间中移动多远,等等)。然后还有一些问题,比如要展示多少范例来获得每一个试图最小化的损失的连续估计。而且,人们可以应用机器学习(例如 Wolfram 语言中的)来实现机器学习的自动化 —— 自动设置超参数等东西。

但最终,整个训练过程的特点是看到损失是如何逐渐减少的(如这个 Wolfram Language 的小型训练的进度监视器,https://reference.wolfram.com/language/ref/NetTrain.html):

而人们通常看到的是,损失在一段时间内减少,但最终在某个恒定值上趋于平缓。如果这个值足够小,那么可以认为训练是成功的;否则,这可能是一个应该尝试改变网络结构的信号。

能否告诉我们 “学习曲线” 要花多长时间才能变平?似乎也存在取决于神经网络的大小和使用的数据量的近似幂律缩放关系(https://arxiv.org/pdf/2001.08361.pdf)。但一般的结论是,训练一个神经网络是很难的,需要大量的计算努力。而实践中,这些努力的绝大部分都花在了对数字阵列的运算上,而这正是 GPU 所擅长的 —— 这就是为什么神经网络训练通常受限于可用的 GPU 数量。

在未来,是否会有本质上更好的方法来训练神经网络,或者更好的方法完成神经网络的工作?我认为答案是肯定的。神经网络的基本理念是用大量简单(本质上相同)的组件创建一个灵活的 “计算结构”,并让这个 “结构” 能够被逐步随着学习实例的进程进行修改。在目前的神经网络中,人们基本上是使用微积分的思想 —— 应用于实数 —— 来做这种增量修改。但越来越清楚的是,拥有高精度的数字并不重要;即使用目前的方法,8 位或更少的数字可能也足够了。

像蜂窝自动机这样的计算系统(https://www.wolframscience.com/nks/chap-2--the-crucial-experiment#sect-2-1--how-do-simple-programs-behave),基本上是在许多单独的比特上并行操作的,我们从没搞清如何做这种增量修改,但没有理由认为它不可能实现。事实上,就像 “2012 年深度学习的突破”(https://en.wikipedia.org/wiki/AlexNet) 一样,这种增量修改在更复杂的情况下可能比简单的情况下更容易。

神经网络 —— 也许有点像大脑 —— 被设定为拥有一个基本固定的神经元网络,被修改的是它们之间连接的强度(“权重”)。(也许至少在年轻的大脑中,大量的完全新的连接也可以增长。) 但是,虽然这对生物学来说可能是一个方便的设置,但并不清楚它是否是实现我们所需功能的最佳方式。而涉及渐进式网络重写的东西(也许让人想起我们那些物理项目,https://www.wolframphysics.org/)最终可能会更好。

但即使在现有的神经网络框架内,目前也有一个关键的限制:现在的神经网络训练从根本上说是连续的,每一批例子的效果都被传播回来以更新权重。事实上,就目前的计算机硬件而言 —— 即使考虑到 GPU —— 在训练期间,神经网络的大部分时间都是 “闲置” 的,每次只有一个部分被更新。从某种意义上说,这是因为我们目前的计算机往往有独立于 CPU(或 GPU)的内存。但在大脑中,这大概是不同的 —— 每一个 “记忆元素”(即神经元)也是一个潜在的活跃的计算元素。如果我们能够以这种方式设置我们未来的计算机硬件,就有可能更有效地进行训练。

“只要规模够大,网络就无所不能!”

ChatGPT 这样的能力令人印象深刻,使得我们不禁想象,如果人们能够 “继续下去”,训练越来越大的神经网络,那么它们最终将 “无所不能”。这个结论可能对那些容易被人类直接思考的事物是成立的。但是,过去几百年科学的教训是,有些东西可以通过形式化的过程来计算出来,但并不容易被人类的直接思维所获得。

非平凡数学就是一个显而易见的例子。但一般的情况其实是计算。而最终的问题是计算的不可约性(https://www.wolframscience.com/nks/chap-12--the-principle-of-computational-equivalence#sect-12-6--computational-irreducibility)。有一些计算,人们可能认为需要很多步骤才能完成,但事实上可以 “简化” 为相当直接的东西。但计算有不可约性,所以有时候也不成立。相反,有些过程 —— 可能就像下面这个过程 —— 要弄清楚发生了什么,必然需要对每个计算步骤进行追踪:

我们通常用大脑做的那些事情,大概是专门为避免计算的不可约性而选择的。在一个人的大脑中做数学需要特别的努力。而且,在实践中,仅仅在一个人的大脑中 “思考” 任何非平凡程序的操作步骤,很大概率是不可能的。

当然,为此我们有计算机。有了计算机,我们可以很容易地做很长的、计算上不可约的事情。而关键的一点是,这些事情一般来说没有捷径。

是的,我们可以记住很多关于在某个特定计算系统中发生的具体例子。也许我们甚至可以看到一些(“计算上可约的”)模式,这样我们可以做一点推广。但问题是,计算上的不可约性意味着我们永远无法保证意外不会发生 —— 只有通过明确地进行计算,你才能知道在任何特定情况下实际发生了什么。

最后,在可学习性和计算的不可约性之间存在着一种基本对抗关系。学习实际上是通过利用规则性来压缩数据(https://www.wolframscience.com/nks/chap-10--processes-of-perception-and-analysis/)。但计算上的不可约性意味着最终对可能存在的规律性有一个限制。

实践中,我们可以想象将一些小的计算设备 —— 如蜂窝自动机或图灵机 —— 构建成像神经网络这样的可训练系统。而且,这种设备确实可以作为神经网络的好 “工具”,就像 Wolfram|Alpha 可以作为 ChatGPT 的好工具(https://writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-computational-knowledge-superpowers-to-chatgpt/)。但计算的不可约性意味着我们不能指望 “进入” 这些设备并让它们学习。

或者换句话说,在能力和可训练性之间有一个最终的权衡:你越想让一个系统 “真正利用” 它的计算能力,它就越会显示出计算的不可约性,它的可训练性就越低。而它越是从本质上可训练,它就越不能做复杂的计算。(对于目前的 ChatGPT 来说,情况实际上要极端得多,因为用于生成每个输出符号的神经网络是一个纯粹的 “前馈” 网络,没有循环,因此没有能力做任何具有非复杂 “控制流” 的计算)。

当然,你可能会问,能够做不可约的计算是否真的很重要。事实上,在人类历史的大部分时间里,这并不特别重要。但我们的现代技术世界是建立在使用数学计算的工程之上的,而且越来越普遍地使用计算。如果我们看一下自然界,它充满了不可约的计算(https://www.wolframscience.com/nks/chap-8--implications-for-everyday-systems/) —— 我们正在慢慢理解如何模仿并用于我们的技术目的。

一个神经网络当然可以注意到自然世界中的各种规律性,而我们也可能很容易通过 “无辅助的人类思维” 注意到这些规律性。但是,如果我们想要解决属于数学或计算科学范畴的事情,神经网络是无法做到的 —— 除非它可以有效地 “作为工具” 使用一个 “普通” 的计算系统。

但是,这一切都可能有混淆之处。在过去,有很多任务 —— 包括写文章 —— 我们认为对计算机来说 “从本质上说太难了”。而现在我们看到这些任务是由 ChatGPT 等完成的,所以现在倾向于认为计算机一定是变得更加强大了,特别是超越了它们之前能够做到的事情(比如逐步计算蜂窝自动机等计算系统的行为)。

但这并不是正确的结论。计算上不可约的过程仍然是计算上不可约的,而且对计算机来说仍然是本质上的困难 —— 即使计算机可以轻易地计算它们的单个步骤。相反,我们应该得出的结论是,我们人类可以做的,但我们不认为计算机可以做的任务,比如写文章,实际上在某种意义上比我们想象的更容易计算。

换句话说,神经网络之所以能够成功地写出一篇文章,是因为写一篇文章被证明是一个比我们想象的 “计算上更浅显” 的问题。从某种意义上说,这使我们更接近于 “拥有一种理论”,即人类是如何做到像写文章这样的事情的,或是说人类是如何处理语言的。

如果你有一个足够大的神经网络,那么,你可能能够做任何人类能够轻易做到的事情。但是,你不会捕捉到自然界一般能做的事情 —— 或者我们从自然界塑造的工具能做的事情。而正是这些工具的使用 —— 无论是实用的还是概念性的 —— 使得我们在近几个世纪里能够超越 “纯粹的无辅助的人类思维” 所能达到的界限,并为人类的目的捕捉到物理和计算宇宙中的更多东西。

嵌入的概念

神经网络 —— 至少在它们目前的设置中 —— 从本质上说是基于数字的。因此,如果我们要用它们来处理像文本这样的东西,我们就需要一种方法来用数字表示我们的文本(https://reference.wolfram.com/language/guide/NetEncoderDecoder.html)。当然,我们可以开始(基本上就像 ChatGPT 那样)为字典中的每个词分配一个数字。但是,有一个重要的想法 —— 这也是 ChatGPT 的核心 —— 超出了这个范围。这就是 “嵌入” 的概念。我们可以把嵌入看作是一种尝试用数字阵列来表示事物 “本质” 的方式 —— 其特性是 “附近的事物” 由附近的数字来表示。

因此,举例来说,我们可以把一个词的嵌入看作是试图在一种 “意义空间” 中排列词语(https://reference.wolfram.com/language/ref/FeatureSpacePlot.html),在这个空间中,以某种方式 “在意义上接近” 的词语在嵌入中出现。实际使用的嵌入 —— 例如在 ChatGPT 中 —— 往往涉及大量的数字列表。但是如果我们把它投射到二维空间,我们就可以给出嵌入的单词是如何排列的范例:

而且,我们可以看到的结果在日常捕捉典型特征方面做得非常好。但是,我们怎样才能构建这样一个嵌入呢?大致的想法是查看大量的文本(这个范例中是来自网络的 50 亿个词),然后看不同的词出现的 “环境” 有多相似。因此,例如,“alligator” 和 “crocodile” (都表示鳄鱼) 经常会在其他类似的句子中互换出现,这意味着它们在嵌入中会被放在附近。但是 “萝卜” 和 “老鹰” 不会出现在类似的句子中,所以它们在嵌入中会被放在很远的地方。

但是,如何使用神经网络实际实现这样的机制呢?让我们跳过单词的嵌入,先讨论图像的嵌入。我们想找到某种方法,通过数字列表来描述图像,使 “我们认为相似的图像” 被分配到相似的数字列表中。

我们如何判断是否应该 “认为图像相似”?如果我们的图像是手写的数字,如果它们是相同的数字我们可能会 “认为两个图像是相似的”。早些时候,我们讨论了一个被训练来识别手写数字的神经网络。可以认为这个神经网络被设置成在其最终输出中把图像放入 10 个不同的仓,每个数字一个仓。

但是,如果在做出 “这是一个 ‘4’” 的最终决定之前,对神经网络内部的进程进行“拦截”呢?我们可能会想到,在神经网络中,有一些数字将图像描述为 “非常像是 4,但有一点像 2” 或类似的情况。而我们的想法是挑选出这样的数字作为嵌入的元素。

所以这里有一个概念。我们不是直接试图描述 “什么图像在什么其他图像附近”,而是考虑一个定义明确的任务(在这种情况下是数字识别),我们可以获得明确的训练数据 —— 然后利用这样一个事实,即在做这个任务时,神经网络隐含地要做出相当于 “接近度决定” 的决定。因此,我们不需要明确讨论 “图像的接近度”,只需要讨论一个图像代表什么数字的具体问题,然后 “把它留给神经网络” 来隐含地决定这意味着什么 “图像接近度”。

那么,这对数字识别网络来说,如何可以更详细地运作呢?我们可以认为这个网络是由 11 个连续的层组成的,我们可以用图标来概括它(激活函数显示为独立的层):

在开始时,向第一层输入实际的图像,用像素值的二维阵列表示。在最后一层,得到了一个由 10 个值组成的数组,可以认为这表示网络对图像对应于 0 到 9 的每个数字的 “确定程度”。

输入图像

最后一层的神经元的值就是:

换句话说,神经网络此时已经 “非常确定” 这个图像是 4,为了实际得到输出 “4”,只需挑选出数值最大的神经元的位置。

但是,如果我们退回上一步呢?网络中的最后一个操作是一个所谓的 softmax(https://reference.wolfram.com/language/ref/SoftmaxLayer.html),它试图 “强制确定”。但在这之前,神经元的值是:

代表 “4” 的神经元仍然有最高的数值。但在其他神经元的数值中也有信息。可以期望这个数字列表在某种意义上可以用来描述图像的 “本质”,从而提供我们可以用作嵌入的东西。因此,例如,这里的每一个 4 都有一个稍微不同的 “签名”(或 “特征嵌入”) —— 都与 8 的非常不同:

在这里,我们基本上是用 10 个数字来描述我们的图像特征。但通常情况下,使用比这更多的数字会更好。例如,在我们的数字识别网络中,我们可以通过挖掘前一层得到一个 500 个数字的阵列。而这作为 “图像嵌入” 使用可能是一个合理的数组。

如果要对手写数字的 “图像空间” 进行明确的可视化,我们需要 “降低维度”,有效地将我们得到的 500 维向量投射到,例如,一个三维空间:

我们刚刚谈到为图像创建一个特征(从而嵌入),有效地基于识别图像的相似性,确定(根据我们的训练集)它们是否对应于同一个手写数字。如果我们有一个训练集,比如说,确定每张图片属于 5000 种常见类型的物体中的一种(猫、狗、椅子…… )。通过这种方式,我们可以制作一个图像嵌入,它被我们对常见物体的识别所 “锚定”,但然后根据神经网络的行为 “围绕它进行概括”。关键是,只要这种行为与人类感知和解释图像的方式相一致,这将最终成为一个 “对我们来说是正确的” 的嵌入,并可用于实践中做 “类似人类判断”。

那么应该如何遵循同样的方法来寻找单词的嵌入呢?关键是要从一个我们可以随时进行训练的关于单词的任务开始。标准的任务是 “单词预测”。假设我们有 “the ___ cat”。基于一个大型的文本语料库(比如说,网络上的文本内容),可能 “填空” 的不同单词的概率是多少?或者说,给定 “___ black ___”,不同的 “两侧词” 的概率是多少?

我们如何为神经网络设置这个问题?归根结底,我们必须用数字来表述一切。做到这一点的一个方法就是为英语中 5 万个左右的每个常用词都分配一个独特的数字。因此,例如,“the” 可能是 914,而 “ cat”(前面有一个空格)可能是 3542。(这些是 GPT-2 所使用的实际数字。)所以对于 “the ___ cat”问题,我们的输入可能是{914, 3542}。输出应该是什么样子的呢?它应该是一个由 50000 个左右的数字组成的列表,给出了每个可能的 “填充” 单词的概率。为了找到嵌入,我们要再一次在神经网络 “达到结论” 之前 “拦截” 它的 “内部” —— 然后获取在那里出现的数字列表,我们可以把它看作 “为每个词添加特征”。

好吧,那么这些特征是什么样子的呢?在过去的 10 年里,已经有一系列不同的系统被开发出来(word2vec, GloVe, BERT, GPT, …… ),每一个都是基于不同的神经网络方法。但最终,所有这些系统都是通过数百到数千个数字的列表来描述单词的特征。

在它们的原始形式中,这些 “嵌入向量” 是没有包含什么信息的。例如,这里是 GPT-2 产生的三个特定词的原始嵌入向量:

比如,如果我们测量这些向量之间的距离,那么就可以发现像单词的 “接近度” 。稍后我们将更详细地讨论我们可能认为这种嵌入的 “认知” 意义。但现在主要的一点是,我们有一种方法可以有效地将单词变成 “神经网络友好” 的数字集合。

但实际上,可以更进一步,不仅仅是用数字的集合来描述单词;我们还可以对单词的序列,或者整个文本块进行描述。ChatGPT就是这样处理事情的。它把目前得到的文本,生成一个嵌入矢量来表示它。然后,它的目标是找到接下来可能出现的不同词汇的概率。它将其答案表示为一个数字列表,该列表基本上给出了 50,000 个左右的可能词汇的概率。

(严格地说,ChatGPT 不处理单词,而是处理 “符号” (token)—— 即便利的语言单位,可能是整个单词,也可能只是 “pre” 或 “ing” 或 “ized” 这样的片段。使用“符号”使 ChatGPT 更容易处理罕见的、复合的和非英语的词汇,有时,无论好坏,都可以发明新的词汇。)

ChatGPT 内部

我们终于准备好讨论 ChatGPT 内部的内容了。它是一个巨大的神经网络 —— 目前是所谓的 GPT-3 网络的一个版本,有 1750 亿个权重。在许多方面来看,这非常像我们讨论过的其他神经网络。但它是一个特别为处理语言问题而设置的神经网络。它最显著的特征是一个叫做 “转化器” 的神经网络架构。

在我们上面讨论的第一个神经网络中,任何给定层的每个神经元基本上都与前一层的每个神经元相连(起码通过一些权重连接)。但是,如果一个人在处理具有特殊的、已知的结构的数据时,这种全连接的网络(大概)是过剩的。因此,例如在处理图像的早期阶段,典型的做法是使用所谓的卷积神经网络(“convnets”,https://reference.wolfram.com/language/ref/ConvolutionLayer.html),其中的神经元被有效地布置在一个类似于图像中的像素的网格上 —— 并且只与网格上附近的神经元相连。

变换器的想法是为构成一段文本的“符号”序列做一些类似的事情。但是,转化器并不只是在序列中定义一个可以有连接的固定区域,而是引入了 “attention(https://reference.wolfram.com/language/ref/AttentionLayer.html)” 的概念 —— 以及对序列的某些部分比其他部分更 “attention” 的概念。也许有一天可以实现仅仅启动一个通用的神经网络并通过训练进行所有的定制。但至少到现在为止,实践中依然必须 “模块化”,就像变换器那样,可能也像我们的大脑那样。

那么 ChatGPT(或者说,它所基于的 GPT-3 网络)实际上在做什么?回想一下,它的总体目标是以 “合理” 的方式延续文本,基于它所看到的训练(包括从网络上查看数十亿页的文本等),所以在任何时候,它都有一定数量的文本,它的目标是为下一个要添加的“符号”提出适当的选择。

它的操作分为三个基本阶段。首先,它获取与迄今为止的文本相对应的符号序列,并找到代表这些符号的嵌入(即一个数字阵列)。然后,它以 “标准的神经网络方式” 对这一嵌入进行操作,数值 “通过” 网络中的连续层,产生一个新的嵌入(即一个新的数字阵列)。然后,它从这个数组的最后一部分,生成一个大约 50,000 个值的数组,这些值变成了可能的下一个标记的概率。(而且,恰好使用的符号数量与英语中的常用词数量相同,尽管只有大约 3000 个符号是整个单词,其余的则是片段。)关键的一点是,这个管道的每一部分都是由一个神经网络实现的,其权重是由网络的端到端训练决定的。换句话说,实际上,除了整体架构之外,没有任何东西是 “明确设计的”;所有东西都是从训练数据中 “学习” 的。

然而,在架构的设置方式上有很多细节,反映了各种经验和神经网络的知识。而且,尽管听起来感觉很杂乱,但我认为讨论其中的一些细节是有用的,尤其是为了了解建立像 ChatGPT 这样的东西所需要的东西。

首先是嵌入模块。下面是 GPT-2 的 Wolfram 语言示意图:

输入是一个由 n 个标记组成的向量(https://reference.wolfram.com/language/ref/netencoder/SubwordTokens.html,如上一节所述,由范围从 1 到 50,000 的整数表示)。这些标记中的每一个都被(通过单层神经网络,https://reference.wolfram.com/language/ref/EmbeddingLayer.html)转换成一个嵌入向量(GPT-2 的长度为 768,ChatGPT 的 GPT-3 为 12,288)。同时,还有一个 “二级路径”,它将标记的(整数)位置序列,并从这些整数中创建另一个嵌入向量。最后,来自标记值和标记位置的嵌入向量被加在一起 —— 产生嵌入模块的最终嵌入向量序列。

为什么只是把标记值和标记位置的嵌入向量加在一起?我不认为这有什么特别的科学依据。只是各种不同的东西都被尝试过,而这是一个似乎有效的方法。这也是神经网络知识的一部分,从某种意义上说,只要你的设置是 “大致正确的”,通常就可以通过做充分的训练来确定细节,而不需要真正 “在工程层面上理解” 神经网络最终是如何配置它的。

下面是嵌入模块所做的工作,对字符串 “hello hello hello hello hello hello hello hello hello hello bye bye bye bye bye bye bye bye bye bye”:

每个标记的嵌入向量的元素都显示在页面下方,在整个页面上,我们首先看到的是 “hello” 的嵌入,然后是 “bye” 的嵌入。上面的第二个数组是位置嵌入 —— 其看起来有点随机的结构只是 “碰巧学到的”(在这种情况下是 GPT-2)。

在嵌入模块之后,会发生转化器的 “主要事件”:一连串所谓的 “注意块”(GPT-2 为 12 个,ChatGPT 的 GPT-3 为 96 个)。这是个复杂的过程 —— 让人想起那些复杂的大型工程系统,或者生物系统。下面是一个单一的 “注意块” 的示意图(对于 GPT-2):

每个这样的注意力块中有一系列的 “注意力头部”(GPT-2 有 12 个,ChatGPT 的 GPT-3 有 96 个) —— 每一个都是独立操作嵌入向量中的不同数值块的。(我们不知道分割嵌入向量为什么好,或者它的不同部分有什么 “意义”;我们只是 “发现它可行”)。

那么注意力头部是做什么的?基本上,它们是一种在标记序列中 “回顾” 的方式(即在迄今为止产生的文本中),并将过去的内容 “打包” 成有助于寻找下一个标记的形式。在上一节中,我们谈到了使用 2-gram 概率,根据它们的直接前身来挑选单词。变换器中的 “注意力” 机制所做的是允许 “注意力” 甚至更早的词 —— 因此有可能捕捉到,比如说,动词可以指代在句子中出现在它们之前的许多词的名词的方式。

在更详细的层面上,注意力头部所做的是以一定的权重重新组合与不同标记相关的嵌入向量中的大块。因此,例如在第一个注意力区块中的 12 个注意力头部(在 GPT-2 中)对上面的 “hello, bye” 字符串有如下(“look-back-all-the-way-beginning-the-sequence-of-tokens,回头看看所有开始的标记序列”)模式的 “重组权值”:

在经过注意力头部的处理后,产生的 “重新加权的嵌入向量”(GPT-2 的长度为 768,ChatGPT 的 GPT-3 的长度为 12288)被传递到一个标准的 “全连接” 神经网层(https://reference.wolfram.com/language/ref/LinearLayer.html)。很难掌握这个层在做什么。但这里是它使用的 768×768 权重矩阵的图(这里是 GPT-2):

采用 64×64 的移动平均数,开始出现一些(随机漫步式的)结构:

是什么决定了这种结构?它可能最终是人类语言特征的一些 “神经网络编码”。但到现在为止,还很不清楚这些特征可能是什么。实际上,我们正在 “打开 ChatGPT 的大脑”(或至少是 GPT-2),并发现里面很复杂,而且我们不了解它 —— 尽管最终它产生了可识别的人类语言。

在经历了一个注意力区块之后,我们得到了一个新的嵌入向量 —— 然后它又被连续地传递到其他的注意力区块中(GPT-2 共有 12 个;GPT-3 有 96 个)。每个注意力区块都有自己特定的 “注意力” 和 “完全连接” 权重模式。这里是 GPT-2 的 “你好,再见” 输入的注意权重序列,用于第一个注意力头部(attention head):

这里是全连接层的(移动平均)“矩阵”:

奇怪的是,尽管这些 “权重矩阵” 在不同的注意力块中看起来很相似,但权重的大小分布可能有些不同(且不总是高斯分布):

那么,在经历了所有这些注意力区块之后,转化器 (transformer) 的实际效果是什么?从本质上讲,它是将原始标记序列的嵌入集合转化为最终的集合。而 ChatGPT 的具体工作方式是在这个集合中提取最后一个嵌入,并对其进行 “解码”,以产生一个关于下一个标记应该是什么的概率列表。

这就是 ChatGPT 的大概内容。它可能看起来很复杂(尤其是因为它有许多不可避免的、有点武断的 “工程选择”),但实际上,所涉及的最终元素非常简单。因为最终我们要处理的只是一个由 “人工神经元” 组成的神经网络,每个神经元都在进行简单的操作,即接受一组数字输入,然后将它们与某些权重相结合。

ChatGPT 的原始输入是一个数字数组(标记的嵌入向量),当 ChatGPT“运行” 以产生一个新的标记时,所发生的只是这些数字 “通过” 神经网的各层,每个神经元 “干自己的活”,并将结果传递给下一层的神经元。没有循环或 “回头”。一切都只是通过网络 “前馈”。

这是一个与典型的计算系统 —— 如图灵机 —— 非常不同的设置,在图灵机中,结果是由相同的计算元素反复 “再处理” 的。在这里,至少在生成一个特定的输出标记时,每个计算元素(即神经元)只被使用一次。

但在某种意义上,即使在 ChatGPT 中,仍然有一个重复使用计算元素的 “外循环”。因为当 ChatGPT 要生成一个新的标记时,它总是 “读取”(即作为输入)它之前的整个标记序列,包括 ChatGPT 自己之前 “写” 的标记。我们可以认为这种设置意味着 ChatGPT —— 至少在其最外层 —— 涉及到一个 “反馈循环”,尽管在这个循环中,每一次迭代都明确显示为一个出现在其生成的文本中的标记。

再回到 ChatGPT 的核心:反复用于生成每个标记的神经网络。在某种程度上,它非常简单:一整个相同的人工神经元的集合。网络的某些部分只是由(“完全连接的”)神经元层组成(https://reference.wolfram.com/language/ref/LinearLayer.html),其中某一层的每个神经元都与前一层的每个神经元相连(有一定的权重)。但是,由于其转换器结构,ChatGPT 有更多的结构部分,其中只有不同层的特定神经元被连接。(当然,仍然可以说 “所有的神经元都是连接的” —— 但有些神经元的权重为零)。

此外,ChatGPT 神经网的某些方面并不是顺理成章认为是由 “同质” 层组成的。例如,参考上面的图标摘要所示,在一个注意力区块中,有一些地方对传入的数据进行了 “多份拷贝”,然后每个拷贝经过不同的 “处理路径”,可能涉及不同数量的层,才重新组合。但是,虽然这可能是对正在发生的事情的一种方便的表述,但至少在原则上可以考虑 “密集填入” 层,目的只是为了让一些权重为零。

如果我们看一下 ChatGPT 的最长路径,大约有 400 个(核心)层参与其中 —— 并不算一个巨大的数字。但是有数以百万计的神经元 —— 总共有 1750 亿个连接,因此有 1750 亿个权重。需要记住,每当 ChatGPT 生成一个新的标记时,它都要进行涉及这些权重中每一个的计算。实际运算中这些计算可以 “按层” 组织成高度并行的阵列操作,可以方便地在 GPU 上完成。但是,对于产生的每一个标记,仍然要进行 1750 亿次计算(最后还要多一点) —— 因此用 ChatGPT 生成一个长文本需要一段时间,在我们预期之内。

最了不起的是,所有这些操作 —— 它们各自都很简单 —— 能够以某种方式共同完成如此出色的 “类似人类” 的文本生成工作。必须再次强调的是,(至少到目前为止,我们知道)没有任何 “终极理论” 来解释这样的工作流程。事实上,我们下面也要讨论,我认为必须把这看作是一个惊喜的科学发现:在像 ChatGPT 这样的神经网络中,有可能捕捉到人类大脑在生成语言方面的本质。

ChatGPT 的训练

现在我们已经给出了 ChatGPT 设置好后的工作概览。但它是如何设立的呢?其神经网络中的 1750 亿个权重是如何确定的?基本上,它们是非常大规模的训练的结果,基于一个巨大的文本语料库 —— 网络上的、书中的等等 —— 由人类写的。正如我们所说的,即使考虑到所有的训练数据,也不能确定神经网络是否能够成功地产生 “类似人类” 的文本。而且,再说一次,似乎需要详细的工程来实现这一目标。但 ChatGPT 的最大惊喜和发现是,它是可能的。实际上,一个 “只有”1750 亿个权重的神经网络可以对人类所写的文本做出一个 “合理的模型”。

在现代,有很多人类写的文本是以数字形式存在的。公共网络至少有几十亿人写的网页,总共可能有一万亿字的文本。如果包括非公开网页,这些数字可能至少要大 100 倍。到目前为止,已经有超过 500 万本数字化书籍可供使用(在曾经出版过的 1 亿本左右的书籍中),又有 1000 亿左右的文字。作为个人比较,我一生中发表的材料总字数不到 300 万字,在过去 30 年中,我写了大约 1500 万字的电子邮件,总共打了大约 5000 万字,在过去几年中,我在直播中说了 1000 多万字。我会根据这些训练一个机器人)。

但是鉴于所有这些数据,我们如何从中训练出一个神经网络呢?基本过程与我们在上面的简单例子中讨论的非常相似。你提出一批例子,然后你调整网络中的权重,使网络在这些例子上的误差(“损失”)最小。从错误中 “反向传播” 的主要问题是,每次你这样做,网络中的每个权重通常至少会有微小的变化,而且有大量的权重需要处理。(实际的 “反向计算” 通常只比正向计算难一个小常数系数)。

有了现代的 GPU 硬件,从成千上万的例子中并行计算出结果是很简单的。但是,当涉及到实际更新神经网络中的权重时,目前的方法要求我们基本上是一批一批地做。(是的,这可能是实际的大脑凭借其计算和记忆元素的结合目前至少拥有的架构上的优势)。

即使在我们之前讨论的看似简单的学习数字函数的案例中,我们发现我们经常不得不使用数百万个例子来成功训练一个网络,至少得从头开始。那么,这意味着我们需要多少个例子来训练一个 “类人语言” 模型呢?似乎没有任何基本的 “理论” 方法可以知道。但是在实践中,ChatGPT 已经成功地在几千亿字的文本上进行了训练。

有些文本被多次输入,有些只有一次。但不知何故,ChatGPT从它看到的文本中 “得到了它需要的东西”。但是,考虑到需要学习的文本量,它应该需要多大的网络才能 “学好”?同样,我们还没有一个基本的理论方法来说明。我们下面会讨论,最终人类语言大概有某种 “总的算法内容”,以及人类通常用它说什么。但接下来的问题是,神经网络在实现基于该算法内容的模型时将会有多大的效率。我们也不知道 —— 尽管 ChatGPT 的成功表明它的效率还算不错。

最后我们可以注意到,ChatGPT 使用了几千亿个权重 —— 与它所获得的训练数据的总字数(或标记)相比,它所做的事情是相当的。在某些方面,也许令人惊讶的是(尽管在 ChatGPT 的小型类似物中也有经验观察),似乎工作良好的 “网络规模” 与 “训练数据的规模” 如此相似。毕竟,这肯定不是说 “在 ChatGPT 内” 所有来自网络和书籍等的文本都被 “直接存储” 了。因为在 ChatGPT 里面的实际上是一堆数字 —— 精度略低于 10 位 —— 是对所有这些文本的总体结构的某种分布式编码。

换句话说,我们可以问人类语言的 “有效信息含量” 是什么,以及通常用它说什么。这里有语言实例的原始语料库。然后是 ChatGPT 的神经网络中的表述。这个表征很可能与 “算法上最小” 的表征相去甚远(我们将在下面讨论)。但它是一个很容易被神经网络使用的表征。在这种表示法中,训练数据的 “压缩” 程度似乎很低;平均而言,似乎只需要不到一个神经网络的权重就可以承载一个词的训练数据的 “信息内容”。

当我们运行 ChatGPT 来生成文本时,我们基本上不得不使用每个权重一次。因此,如果有 n 个权重,我们有 n 个计算步骤要做 —— 尽管在实践中,许多步骤通常可以在 GPU 中并行完成。但是,如果我们需要大约 n 个字的训练数据来设置这些权重,那么从我们上面所说的,我们可以得出结论,我们需要大约 n2 个计算步骤来进行网络训练 —— 这就是为什么,用目前的方法,人们最终需要谈论数十亿美元的训练工作。

基本训练之外的内容

训练 ChatGPT 的大部分工作是向它 “展示” 大量来自网络、书籍等的现有文本。但事实证明,还有一个明显相当重要的部分。

一旦它完成了对所展示的原始语料库的 “原始训练”,ChatGPT 内的神经网络就可以开始生成自己的文本,继续提示等。但是,虽然这样做的结果往往看起来很合理,但它们往往 —— 特别是对于较长的文本 —— 以往往相当非人类的方式 “游离”。这不是人们可以轻易发现的,比如说,通过对文本做传统的统计。但这是实际阅读文本的人很容易注意到的东西。

构建 ChatGPT 的一个关键想法是,在 “被动地阅读” 网络等事物之后,还有一个步骤:让实际的人类主动与 ChatGPT 互动,看看它产生了什么,并在实际上给它反馈 “如何成为一个好的聊天机器人”。但神经网络如何使用这种反馈呢?第一步只是让人类对神经网络的结果进行评价。但随后又建立了另一个神经网络模型,试图预测这些评分。但现在这个预测模型可以在原始网络上运行 —— 基本上就像一个损失函数,实际上是让该网络通过人类的反馈来 “调高”。而实践中的结果似乎对系统成功产生 “类似人类” 的输出有很大影响。

总的来说,有趣的是,“最初训练的” 网络似乎只需要很少的 “戳” 就能让它向特定的方向有用地发展。人们可能会认为,要让网络表现得像 “学到了新东西”,就必须运行训练算法,调整权重,等等。

但事实并非如此。相反,基本上只需要告诉 ChatGPT 一些东西,作为你所给的提示的一部分,然后它就可以在生成文本时成功地利用你告诉它的东西。我认为,这一点再次成为理解 ChatGPT “真正在做什么” 以及它与人类语言和思维结构的关系的一个重要线索。

这当然有一些类似于人类的东西:至少在它接受了所有的预训练之后,你可以告诉它一些东西,而它可以 “记住它” —— 至少 “足够长的时间” 来使用它生成一段文本。那么,在这样的情况下发生了什么?可能是 “你可能告诉它的一切都已经在那里了” —— 你只是把它引向正确的地方。但这似乎并不靠谱。相反,似乎更有可能的是,是的,这些元素已经在那里了,但具体细节是由 “这些元素之间的轨迹” 这样的东西来定义的,这就是你告诉它的东西。

事实上,就像人类一样,如果你告诉它一些奇怪的、出乎意料的、完全不适合它所知道的框架的东西,它似乎并不能成功地 “整合” 这个。只有当它基本上以一种相当简单的方式骑在它已经拥有的框架之上时,它才能 “整合” 它。

还值得再次指出的是,对于神经网络能够 “接收” 的东西,不可避免地存在 “算法限制”。告诉它 “浅层” 的规则,如 “这个到那个”,神经网络很可能能够很好地表示和再现这些规则 —— 事实上,它从语言中 “已经知道” 的东西会给它一个直接的模式来遵循。但是,如果试图给它制定一个实际的 “深度” 计算规则,涉及许多潜在的不可简化的计算步骤,它就无法工作了。(记住,在每一步,它总是在其网络中 “向前输送数据”;除了生成新的标记外,从不循环。)

当然,网络可以学习特定的 “不可简化的” 计算的答案。但只要有组合数的可能性,这种 “查表式” 的方法就不会奏效。因此,是的,就像人类一样,现在是时候让神经网络 “伸出手来”,使用实际的计算工具了。(是的,Wolfram|Alpha 和 Wolfram 语言是唯一合适的,因为它们是为了 “谈论世界上的事物” 而建立的,就像语言模型的神经网络一样)。

真正让 ChatGPT 工作的原理是什么?

人类的语言 —— 以及产生语言的思维过程 —— 似乎一直代表着一种复杂性的顶峰。事实上,人类的大脑 —— “仅” 有 1000 亿个左右的神经元网络(也许还有 100 万亿个连接) —— 能够负责这项工作,似乎有些了不起。也许,人们可能会想象,大脑除了神经元网络之外还有其他东西,就像一些未被发现的物理学新层。但现在通过 ChatGPT,我们得到了一个重要的新信息:我们知道,一个纯粹的人工神经网络,其连接数与大脑的神经元一样多,能够很好地生成人类语言,令人惊讶。

而且,是的,这仍然是一个庞大而复杂的系统 —— 其神经网络的权重与目前世界上的文字一样多。但在某种程度上,似乎仍然很难相信,语言的所有丰富性和它可以谈论的东西可以被封装在这样一个有限的系统中。这其中的部分原因无疑是反映了一个无处不在的现象(这在第 30 条规则的例子中首次变得很明显),即计算过程实际上可以大大放大系统的表面复杂性,即使其基本规则很简单。但是,实际上,正如我们上面所讨论的,ChatGPT 中所使用的那种神经网络往往是专门用来限制这种现象的影响以及与之相关的计算的不可重复性的,以便使其训练更容易进行。

那么,像 ChatGPT 这样的东西是如何在语言方面走得如此之远的呢?我想,基本的答案是,语言在根本层面上比它看起来要简单得多。这意味着 ChatGPT —— 即使它的神经网络结构最终是简单的 —— 能够成功地 “捕捉” 人类语言的本质和背后的思维。此外,在其训练中,ChatGPT 以某种方式 “隐含地发现” 了语言(和思维)中的任何规律性,使其成为可能。

我认为,ChatGPT 的成功为我们提供了一个基本的和重要的科学证据:它表明我们可以期待有重大的新 “语言法则” —— 以及有效的 “思维法则” —— 在那里被发现。在 ChatGPT 中,作为一个神经网络,这些规律充其量是隐含的。但是,如果我们能以某种方式使这些定律明确化,就有可能以更直接、更有效和更透明的方式完成 ChatGPT 所做的各种事情。

但是,好吧,那么这些法律可能是什么样的?最终,它们必须给我们提供某种语言 —— 以及我们用它说的东西 —— 如何组合的处方。稍后我们将讨论 “观察 ChatGPT” 如何能够给我们一些这方面的提示,以及我们从构建计算语言中了解到的情况如何提示我们前进的道路。但首先让我们来讨论两个长期以来为人所知的相当于 “语言法则” 的例子 —— 以及它们与 ChatGPT 的运作有何关系。

第一个是语言的语法。语言并不只是一个随机的词语组合。相反,对于不同种类的单词如何放在一起,有(相当)明确的语法规则:例如,在英语中,名词前面可以有形容词,后面可以有动词,但通常两个名词不能紧挨着。这样的语法结构可以(至少是近似地)被一套规则所捕获,这些规则定义了如何将相当于 “解析树” 的东西放在一起:

ChatGPT 对这种规则没有任何明确的 “知识”。但在训练中,它隐含地 “发现” 了这些规则,然后似乎很擅长遵循这些规则。那么,它是如何工作的呢?在一个 “大画面” 的层面上,这并不清楚。但是为了得到一些启示,看看一个更简单的例子也许会有启发。

考虑一种由 ( 和 ) 序列组成的 “语言”,其语法(https://www.wolframscience.com/nks/notes-7-9--nested-lists/)规定括号应该总是平衡的,如解析树所表示的那样:

我们能否训练一个神经网络来产生 “语法上正确的” 小括号序列?在神经网络中处理序列有多种方法,但让我们使用变换器网络,就像 ChatGPT 那样。给定一个简单的变换器网络,我们可以开始给它提供语法正确的小括号序列作为训练实例。一个微妙之处(实际上也出现在 ChatGPT 的人类语言生成中)是,除了我们的 “内容标记”(这里是 “(” 和 “)”),我们还必须包括一个 “结束” 标记,它的生成表明输出不应该再继续下去(即对于 ChatGPT 来说,我们已经到达了 “故事的终点”)。

如果我们只用一个有 8 个头的注意块和长度为 128 的特征向量来设置一个转换网(ChatGPT 也使用长度为 128 的特征向量,但有 96 个注意块,每个注意块有 96 个头),那么似乎不可能让它学会很多小括号语言。但是,如果有 2 个注意力头,学习过程似乎会收敛 —— 至少在给出 1000 万个左右的例子之后(而且,正如转化器网络所常见的那样,显示更多的例子似乎会降低其性能)。

因此,对于这个网络,我们可以做 ChatGPT 的类似工作,并询问下一个标记应该是什么的概率 —— 在一个括号序列中:

在第一种情况下,网络 “非常确定” 序列不能在这里结束 —— 这很好,因为如果它结束了,小括号就会留下不平衡。然而,在第二种情况下,它 “正确地认识到” 序列可以在这里结束,尽管它也 “指出” 有可能 “重新开始”,放下一个 “(”,估计后面还有一个 “)”。但是,哎呀,即使它有 40 万个左右经过艰苦训练的权重,它也说有 15% 的概率将 “)” 作为下一个标记 —— 这是不对的,因为这必然会导致一个不平衡的括号。

如果我们要求网络为逐渐变长的()序列提供最高概率的完成度,我们会得到以下结果:

在一定长度内,网络稳定运行。但再往后它就开始失败了。这是在神经网络(或一般的机器学习)的这种 “精确” 情况下看到的非常典型的事情。人类 “一眼就能解决” 的情况,神经网络也能解决。但是需要做一些 “更多的算法”(例如明确地计算括号是否封闭)的情况,神经网络往往在某种程度上是 “计算上太浅”,无法可靠地做到。(顺便说一句,即使是目前完整的 ChatGPT 也很难正确匹配长序列中的括号)。

那么,这对像 ChatGPT 和像英语这样的语言的语法意味着什么呢?小括号语言是 “朴素的” —— 而且更像是一个 “算法的故事”。但在英语中,能够在局部选词和其他提示的基础上 “猜测” 什么是符合语法的,则要现实得多。而且,是的,神经网络在这方面要好得多 —— 尽管它可能会错过一些 “形式上正确” 的情况,而人类也可能错过。但主要的一点是,语言有一个整体的句法结构这一事实 —— 以及它所暗示的所有规律性 —— 在某种意义上限制了神经网络要学习的 “程度”。一个关键的 “类似自然科学” 的观察是,像 ChatGPT 中的神经网络的转化器架构似乎能够成功地学习所有人类语言中似乎都存在(至少在某种程度上是近似的)的那种嵌套树状的句法结构。

句法提供了对语言的一种约束。但显然还有更多。像 “Inquisitive electrons eat blue theories for fish (好奇的电子吃鱼的蓝色理论)” 这样的句子在语法上是正确的,但并不是人们通常期望说的东西,而且如果 ChatGPT 生成它,也不会被认为是成功的 —— 因为,嗯,以其中单词的正常含义,它基本上没有意义。

但是,是否有一个一般的方法来判断一个句子是否有意义?这方面没有传统的整体理论。但是,我们可以认为 ChatGPT 在接受了来自网络的数十亿(可能是有意义的)句子的训练之后,已经隐含地 “发展了一套理论”。

这个理论可能是什么样的呢?好吧,有一个小小的角落,基本上两千年来一直为人所知,那就是逻辑。当然,在亚里士多德发现的 Syllogistic 形式中,逻辑基本上是一种说法,即遵循某些模式的句子是合理的,而其他的则不是。因此,例如,说 “所有的 X 都是 Y,这不是 Y,所以它不是 X” 是合理的(正如 “所有的鱼都是蓝色的,这不是蓝色,所以它不是鱼”)。就像人们可以有点异想天开地想象亚里士多德通过(“机器学习式”)大量的修辞学例子来发现对偶逻辑一样,人们也可以想象在 ChatGPT 的训练中,它将能够通过查看网络上的大量文本等来 “发现对偶逻辑”。(是的,虽然我们可以期待 ChatGPT 产生包含 “正确推论” 的文本,比如基于对偶逻辑,但当它涉及到更复杂的形式逻辑时,情况就完全不同了 —— 我认为我们可以期待它在这里失败,原因与它在小括号匹配中失败的原因相同)。

但除了逻辑这个狭隘的例子之外,对于如何系统地构建(或识别)甚至是合理的有意义的文本,又能说些什么呢?是的,有一些东西,如《疯狂的自由》,使用非常具体的 “短语模板”。但不知何故,ChatGPT 隐含着一种更普遍的方法。也许除了 “当你有 1750 亿个神经网络权重时,它就会以某种方式发生” 之外,对如何做到这一点没有什么可说的。但我强烈怀疑有一个更简单、更有力的故事。

意义空间和语义运动法则

我们在上面讨论过,在 ChatGPT 中,任何一段文本都有效地由一个数字阵列来表示,我们可以将其视为某种 “语言特征空间” 中的一个点的坐标。因此,当 ChatGPT 继续一个文本时,这相当于在语言特征空间中追踪一个轨迹。但现在我们可以问,是什么让这个轨迹对应于我们认为有意义的文本。也许会有某种 “语义运动法则” 来定义 —— 或者至少是约束 —— 语言特征空间中的点如何移动,同时保留 “有意义”?

那么,这个语言学特征空间是什么样子的呢?下面是一个例子,说明如果我们把这样一个特征空间投射到二维空间,单个词(这里是指普通名词)是如何布局的:

我们在上面看到的另一个例子是基于代表植物和动物的词。但这两种情况下的重点是,“语义相似的词” 被放在附近。

作为另一个例子,这里是对应于不同语音部分的词是如何布置的:

当然,一个给定的词一般来说并不只有 “一个意思”(或一定只对应一个语篇)。通过观察包含一个词的句子在特征空间中的布局,我们通常可以 “区分” 出不同的含义 —— 就像这里的例子 “crane”(鹤/起重机:“鸟” 或 “机器”?):

好的,所以我们至少可以认为这个特征空间是把 “意义相近的词” 放在这个空间里的,这是合理的。但是,在这个空间里,我们可以确定什么样的额外结构?例如,是否存在某种 “平行运输” 的概念,以反映空间中的 “平坦性”?掌握这个问题的一个方法是看一下类比:

而且,是的,即使当我们投射到二维时,往往至少有一个 “hint of flatness (平坦性的暗示)”,尽管它肯定不是普遍可见的。

那么,轨迹呢?我们可以看看 ChatGPT 的提示在特征空间中的轨迹 —— 然后我们可以看看 ChatGPT 是如何延续这个轨迹的:

这里当然没有 “几何学上明显的” 运动规律。这一点也不令人惊讶;我们完全可以预料到这是一个相当复杂的故事。而且,举例来说,即使有一个 “语义上的运动定律” 可以找到,它最自然地以什么样的嵌入(或者,实际上,什么样的 “变量”)来表述,也远非明显。

在上图中,我们展示了 “轨迹” 中的几个步骤 —— 在每个步骤中,我们挑选 ChatGPT 认为最可能的词(“零温度” 情况)。但我们也可以问,在某一点上,哪些词可以以什么概率 “接下来”:

在这种情况下,我们看到的是有一个高概率词的 “扇形”,似乎在特征空间中或多或少有一个明确的方向。如果我们再往前走会怎么样呢?下面是我们沿着轨迹 “移动” 时出现的连续的 “扇形”:

这是一个三维表示,总共走了 40 步:

而且,是的,这似乎是一团糟 —— 并没有做任何事情来特别鼓励这样的想法,即我们可以期望通过经验性地研究 “ChatGPT 在里面做什么” 来确定 “类似数学物理学的”“运动语义法则”。但也许我们只是看了 “错误的变量”(或错误的坐标系),只要我们看了正确的变量,我们就会立即看到 ChatGPT 正在做一些 “数学·物理学的简单” 的事情,比如遵循测地线。但是到目前为止,我们还没有准备好从它的 “内部行为” 中 “实证解码”ChatGPT“发现” 人类语言是如何 “拼凑” 的。

语义语法和计算语言的力量

产生 “有意义的人类语言” 需要什么?在过去,我们可能会认为这不可能是一个人的大脑。但现在我们知道,ChatGPT 的神经网络可以很好地完成这一任务。不过,也许这已经是我们能走的最远的路了,没有什么比这更简单 —— 或者更容易被人类理解 —— 的东西会起作用。但我强烈怀疑的是,ChatGPT 的成功隐含地揭示了一个重要的 “科学” 事实:有意义的人类语言的结构和简单性实际上比我们所知道的要多得多,而且最终甚至可能有相当简单的规则来描述这种语言如何被组合起来。

正如我们上面提到的,句法语法给出了人类语言中对应于不同语篇的词语如何组合的规则。但是为了处理意义,我们需要更进一步。而如何做到这一点的一个版本是,不仅要考虑语言的句法语法,还要考虑语义语法。

为了语法的目的,我们确定名词和动词等事物。但为了语义学的目的,我们需要 “更精细的等级”。因此,例如,我们可以确定 “移动” 的概念,以及 “保持独立于位置的身份” 的 “物体” 的概念。这些 “语义概念” 中的每一个都有无尽的具体例子。但是,为了我们的语义语法的目的,我们将只是有某种一般性的规则,基本上说 “物体” 可以 “移动”。关于这一切如何运作,有很多东西可以说(其中一些我以前说过)。但我在这里只想说几句,指出一些潜在的发展道路。

值得一提的是,即使一个句子根据语义语法是完全可以的,也不意味着它在实践中已经实现(甚至可以实现)。“大象去了月球” 无疑会 “通过” 我们的语义语法,但是它肯定没有在我们的实际世界中实现(至少还没有) —— 尽管对于一个虚构的世界来说,这绝对是公平的游戏。

当我们开始谈论 “语义语法” 时,我们很快就会问:“它的下面是什么?” 它假设的是什么 “世界模型”?句法语法实际上只是关于从词语中构建语言的问题。但是,语义学语法必然涉及某种 “世界模型” —— 作为 “骨架” 的东西,由实际词语构成的语言可以在上面分层。

直到最近,我们可能会想象,(人类)语言将是描述我们 “世界模型” 的唯一一般方式。早在几个世纪前,就已经开始有了对特定种类事物的形式化,特别是以数学为基础。但现在有一种更普遍的形式化方法:计算语言。

是的,这是我四十多年来的一个大项目(现在体现在Wolfram 语言中):开发一个精确的符号表示,可以尽可能广泛地谈论世界上的事物,以及我们关心的抽象事物。因此,例如,我们有城市、分子、图像和神经网络的符号表示,而且我们有关于如何计算这些事物的内在知识。

而且,经过几十年的工作,我们已经用这种方式覆盖了很多领域。但是在过去,我们并没有特别处理 “日常话语”。在 “我买了两磅苹果” 中,我们可以轻易地表示(并对其进行营养和其他计算)“两磅苹果”。但是我们(还没有)对 “我买了” 有一个符号表示。

这一切都与语义语法的想法有关 —— 目标是为概念提供一个通用的符号 “构造套件”,这将为我们提供什么可以与什么结合的规则,从而为我们可能转化为人类语言的 “流程” 提供规则。

但是,假设我们有了这种 “符号话语语言”。我们会用它做什么呢?我们可以开始做一些事情,比如生成 “本地有意义的文本”。但最终我们可能想要更多 “全局意义” 的结果 —— 这意味着 “计算” 更多关于世界上实际存在或发生的事情(或许是在某个一致的虚构世界)。

现在在 Wolfram 语言中,我们有大量的关于许多种类的事物的内置计算知识。但对于一个完整的符号话语语言,我们必须建立关于世界上一般事物的额外 “计算”:如果一个物体从 A 地移动到 B 地,又从 B 地移动到 C 地,那么它就从 A 地移动到 C 地,等等。

给定一个符号化的话语语言,我们可以用它来做 “独立的陈述”。但我们也可以用它来问关于世界的问题,“Wolfram|Alpha 风格”。或者我们可以用它来陈述我们 “想让它变成这样” 的事情,大概是用一些外部的执行机制。或者我们可以用它来做断言 —— 也许是关于真实的世界,也许是关于我们正在考虑的某个特定世界,不管是虚构的还是其他的。

人类语言从根本上说是不精确的,这不仅仅是因为它没有 “拴” 在一个具体的计算实现上,而且它的意义基本上只是由其使用者之间的 “社会契约” 来定义。但是计算语言,就其性质而言,具有某种基本的精确性 —— 因为最终它所指定的东西总是可以 “毫不含糊地在计算机上执行”。人类语言通常可以摆脱某种模糊性。(当我们说 “行星” 时,它是否包括系外行星,等等。)但是在计算语言中,我们必须对我们所做的所有区分精确而清楚。

在计算语言中,利用普通人类语言来编造名字往往很方便。但它们在计算语言中的含义必然是精确的,而且可能涵盖也可能不涵盖典型人类语言用法中的某些特定内涵。

我们应该如何找出适合一般符号话语语言的基本 “本体”?嗯,这并不容易。这也许就是为什么自亚里士多德两千多年前的原始开始以来,在这些方面做得很少。但是,今天我们对如何以计算方式思考世界了解得如此之多,这确实有帮助(而且,从我们的物理学项目和 ragiad 的想法中得到 “基本形而上学” 也无伤大雅)。

但是这一切在 ChatGPT 的背景下意味着什么?从它的训练来看,ChatGPT 已经有效地 “拼凑” 了一定数量的相当于语义语法的东西(相当令人印象深刻)。但是它的成功让我们有理由认为,以计算语言的形式构建更完整的东西将是可行的。而且,与我们迄今为止对 ChatGPT 内部的理解不同的是,我们可以期待将计算语言设计得让人类容易理解。

当我们谈论语义语法的时候,我们可以将其与对偶逻辑相类比。起初,对偶逻辑本质上是用人类语言表达的语句规则的集合。但是(是的,两千年后)当形式逻辑被开发出来时,音节逻辑最初的基本构造现在可以用来建造巨大的 “形式塔”,包括例如现代数字电路的运作。而且,我们可以预期,更一般的语义语法也会如此。起初,它可能只是能够处理简单的模式,例如以文本形式表达。但是,一旦它的整个计算语言框架建立起来,我们可以预期它将能够被用来竖起 “广义语义逻辑” 的高塔,使我们能够以精确和正式的方式处理各种我们以前从未接触过的东西,当然带有所有模糊性的“底层”人类语言除外。

我们可以认为计算语言的构造 —— 以及语义语法 —— 代表了一种对事物的终极压缩。因为它允许我们谈论什么是可能的本质,而不需要,例如,处理存在于普通人类语言中的所有 “转折性的措辞”。我们可以把 ChatGPT 的巨大优势看作是有点类似的东西:因为它在某种意义上也已经 “钻研” 到可以 “把语言以一种有语义的方式组合在一起”,而不关心不同的可能的措辞。

那么,如果我们把 ChatGPT 应用于底层计算语言,会发生什么呢?计算语言可以描述什么是可能的。但仍然可以添加的是对 “什么是流行的” 的感觉 —— 例如基于对网络上所有内容的阅读。但是,在下面,用计算语言操作意味着像 ChatGPT 这样的东西可以立即和基本地接触到相当于利用潜在的不可还原的计算的终极工具。这使得它成为一个不仅可以 “生成合理文本” 的系统,而且可以期望解决任何可以解决的问题,即这些文本是否真的对世界 —— 或者它应该谈论的东西做出了 “正确” 的陈述。

那么...ChatGPT 在做什么?为何能做到这些?

ChatGPT 的基本概念在某种程度上相当简单。从网络、书籍等人类创造的大量文本样本开始。然后训练一个神经网络来生成 “像这样” 的文本。特别是,让它能够从一个 “提示” 开始,然后继续生成 “像它被训练过的那样” 的文本。

正如我们所看到的,ChatGPT 中的实际神经网络是由非常简单的元素组成的,尽管有数十亿个元素。神经网络的基本操作也非常简单,主要是对它所生成的每一个新词(或词的一部分),通过其元素 “传递一次输入”(没有任何循环,等等)。

但出乎意料的是,这个过程可以产生成功地 “像” 网络上、书本上的文字。而且,它不仅是连贯的人类语言,它还 “说了些什么”,“按照它的提示” 利用它 “读” 到的内容。它并不总是说 “全局有意义”(或对应于正确的计算)的事情 —— 因为(例如,在没有获得 Wolfram|Alpha 的 “计算超能力” 的情况下),它只是根据训练材料中的事情 “听起来像” 说了一些话。

ChatGPT 的具体工程使它相当引人注目。但最终(至少在它能够使用外部工具之前),ChatGPT“只是” 从它所积累的 “传统智慧的统计数据” 中抽出一些 “连贯的文本线索”。但令人惊讶的是,其结果是如此的像人。正如我所讨论的,这表明了一些至少在科学上非常重要的东西:人类语言(以及它背后的思维模式)在某种程度上比我们想象的更简单,更 “像法律”。ChatGPT 已经隐晦地发现了这一点。但我们有可能通过语义语法、计算语言等明确地暴露它。

ChatGPT 在生成文本方面所做的工作令人印象深刻,而且其结果通常非常像我们人类会产生的东西。那么,这是否意味着 ChatGPT 的工作方式就像一个大脑?它的底层人工神经网络结构最终是以大脑的理想化为模型的。而且,当我们人类产生语言时,似乎很有可能发生的许多方面都很相似。

当涉及到训练(又称学习)时,大脑和当前计算机的不同 “硬件”(以及,也许,一些未开发的算法想法)迫使 ChatGPT 使用一种可能与大脑相当不同(在某些方面效率低得多)的策略。还有一点:即使与典型的算法计算不同,ChatGPT 内部也没有 “循环” 或 “对数据进行重新计算”。而这不可避免地限制了它的计算能力 —— 即使与目前的计算机相比也是如此,但与大脑相比肯定是如此。

目前还不清楚如何 “解决这个问题”,并且仍然保持以合理效率训练系统的能力。但这样做大概会让未来的 ChatGPT 做更多 “类似大脑的事情”。当然,有很多事情是大脑做不好的 —— 特别是涉及到相当于不可简化的计算。对于这些,大脑和像 ChatGPT 这样的东西都必须寻求 “外部工具” —— 比如 Wolfram 语言。

但就目前而言,看到 ChatGPT 已经能够做到的事情是令人兴奋的。在某种程度上,它是基本科学事实的一个很好的例子,即大量简单的计算元素可以做非凡和意想不到的事情。但它也为我们提供了两千年来最好的动力,以更好地理解人类条件的核心特征,即人类语言及其背后的思维过程的基本特征和原则。

猜你喜欢

转载自blog.csdn.net/m0_67129275/article/details/130135703
今日推荐