图文详解Transformer

Transformer源于2017年谷歌的一篇论文Attention is all you need,这篇论文极具创新性,提出了新的Transformer结构,此后在此基础上又出现了GPT、Bert等优秀模型,这些优秀模型都是在Transformer的基础上衍生出来的,所以本文详细介绍一下Transformer的原理。

俯视Transformer

本文以机器翻译为例,先整体来看Tranformer的结构,然后在步步拆解,一一解说。我们先把Transformer想象成一个黑匣子,在机器翻译的领域中,这个黑匣子的功能就是输入一种语言然后将它翻译成其他语言。如下图所示:
在这里插入图片描述
简单来看,这个黑匣子的功能就是把一种语言转换成另一种语言,那么,我们拆开这个黑匣子,里面分为Encoders和Decoders,如下图所示:
在这里插入图片描述
我们再对这个黑匣子进一步的剖析,发现每个Encoders中分别由6(当然其他数值也可以,只不过论文中是这样配置的)个Encoder组成。而每个Decoders中同样也是由6个Decoder组成。
在这里插入图片描述
看上图,有一个细节,顶端Encoders的输出会传递给每一个Decoders,这有点类似于Sequence2Sequence中的Attention机制。
对于Encoders中的每一个Encoder,他们结构都是相同的,但是并不会共享权值。每层Encoder有2个部分组成,如下图:
在这里插入图片描述
每个Encoder的输入首先会通过一个self-attention层,其中这个self-attention到底干了啥后面再说,咱先说说它的好处,self-attention层可以帮助Endcoder在编码某一个单词的过程中同时查看并考虑输入序列中的其他单词,以便更好的对单词进行编码。Self-attention的输出会被传入一个全连接的前馈神经网络(可以直接理解为全连接层),每个encoder的前馈神经网络参数个数都是相同的,但是他们的作用是独立的。
每个Decoder也同样具有这样的层级结构,有一点例外的是在self-attention层和前馈神经网络层之间还有一个Encoder-Decoder-Attention层,用于帮助Decoder在解码时专注于与输入句子中对应的那个单词(是不是seq2seq models的结构有着异曲同工之妙)

Tensors to The Picture

在上一节,我们介绍了Transformer的简单网络结构。现在我们以图示的方式来研究Transformer模型中各种张量/向量,观察从输入到输出的过程中这些数据在各个网络结构中的流动。
首先还是NLP老生常谈的问题,先做embedding.
在这里插入图片描述
我们将每个单词编码为一个512维度的向量,我们用上面这张简短的图形来表示这些向量。词嵌入的过程只发生在最底层的Encoder。但是对于所有的Encoder来说,你都可以按下图来理解。输入(一个向量的列表,每个向量的维度为512维,在最底层Encoder作用是词嵌入,其他层就是其前一层的output)。另外这个列表的大小和词向量维度的大小都是可以设置的超参数。一般情况下,它是我们训练数据集中最长的句子的长度。
在这里插入图片描述
上图其实包含了一个Transformer的关键点。你注意观察,在每个单词进入Self-Attention层后都会有一个对应的输出。Self-Attention层中的输入和输出是存在依赖关系的,而前馈层则没有依赖,所以在前馈层,我们可以用到并行化来提升速率。下面用一个简短的句子作为例子,来一步一步推导transformer每个子层的数据流动过程。
Transformer中的每个Encoder接收一个512维度的向量的列表作为输入,然后将这些向量传递到‘self-attention’层,self-attention层产生一个等量512维向量列表,然后进入前馈神经网络,前馈神经网络的输出也为一个512维度的列表,然后将输出向上传递到下一个encoder。
在这里插入图片描述
如上图所示,每个位置的单词首先会经过一个self attention层,从self-attention层出来后,接着每个单词都通过一个独立的前馈神经网络(这些神经网络结构完全相同),通过前馈神经网络的过程很简单,类似于全连接层的前向传播过程,这里就不赘述了,下面重点详细讲解通过self-attention层的过程。

Through the Self-Attention

说起Self-attention这个单词,大家可能一脸懵逼,在当时是一种新提出的概念。假设下面的句子就是我们需要翻译的输入句:

”The animal didn't cross the street because it was too tired”

这句话中的"it"指的是什么?它指的是“animal”还是“street”?对于人来说,这其实是一个很简单的问题,但是对于一个算法来说,处理这个问题其实并不容易。self attention的出现就是为了解决这个问题,通过self attention,我们能将“it”与“animal”联系起来。当模型处理单词的时候,self attention层可以通过当前单词去查看其输入序列中的其他单词,以此来寻找编码这个单词更好的线索。熟悉RNN的朋友,可以想想RNN是怎么处理先前单词(向量)与当前单词(向量)的关系的?RNN是怎么计算他的hidden state的。self-attention正是transformer中设计的一种通过其上下文来理解当前词的一种办法。你会很容易发现…相较于RNNs,transformer具有更好的并行性。
在这里插入图片描述
如上图,是我们第五层Encoder针对单词’it’的图示,可以发现,我们的Encoder在编码单词‘it’时,部分注意力机制集中在了‘animl’上,这部分的注意力会通过权值传递的方式影响到’it’的编码。
计算self-attention的第一步是从每个Encoder的输入向量上创建3个向量(底层Encoder需要对每个单词做词嵌入)。所以,对于每个单词,我们创建一个Query向量,一个Key向量和一个Value向量。这些向量是通过词嵌入乘以我们训练过程中创建的3个权重矩阵而产生的。
注意这些新向量的维度比嵌入向量小。我们知道嵌入向量的维度为512,而这里的新向量的维度只有64维。新向量并不是必须小一些,而是网络架构上的选择使得Multi-Headed Attention(大部分)的计算不变。
在这里插入图片描述
我们将 X 1 X_1 乘以 W Q W^Q 的权重矩阵得到新向量 q 1 q_1 q 1 q_1 既是“query”的向量。同理,最终我们可以对输入句子的每个单词创建“query”,key”,“value”的新向量表示形式。看到这里,可能会有小伙伴会问,创建“query”,key”,“value”这三个向量是干啥的,有啥用呢?我想告诉大家,莫急,这些向量的概念是很抽象,但是它确实有助于计算注意力。不过先不用纠结去理解它,后面的的内容,会帮助你理解的。
计算self-attention的第二步是计算得分score。以上图为例,假设我们在计算第一个单词“thinking”的self-attention,我们需要根据这个单词对输入句子的每个单词进行评分。当我们在某个位置编码单词时,这个分数就决定了该单词对输入句子的每个其他单词的关照程度,或者说是亲密程度。
通过将每个位置的单词的query向量和与其他位置的每个单词的key向量的点积来得到相应的单词打分。所以如果我们是处理位置最靠前的词的自注意力的话,第一个分数是q1和k1的点积,第二个分数是q1和k2的点积。如下图所示:
在这里插入图片描述

计算出得分之后,将得分除以8( d k {d_k} ),论文中使用key向量的维度是64维,其平方根=8,这样可以使得训练过程中具有更稳定的梯度。这个 d k {d_k} 并不是唯一值,是经验所得,然后再将得到的输出通过softmax函数化成概率分布,概率和为1.如下图所示。
在这里插入图片描述

这个softmax的分数决定了当前单词对句子中每个单词的重要程度,或者说亲密程度。很明显,当前单词对应句子中此单词所在位置的softmax的分数最高,但是,有时候attention机制也能关注到此单词外的其他单词,这很有用。
接下来将每个Value向量乘以softmax后的概率,然后加权求和,产生此位置的self-attention层的输出,图中计算的是第一个单词的self-attention输出。
在这里插入图片描述

以上是我们以第一个单词(Thinking)为例,总结的self-attention的计算过程,(单词级别)就是得到一个我们可以放到前馈神经网络的矢量。 然而在实际的实现过程中,该计算会以矩阵的形式完成,以便更快地处理。下面我们来看看Self-Attention的矩阵计算方式。

Matrix Calculation of Self-Attention

第一步是去计算Query,Key和Value矩阵。我们将词嵌入转化成矩阵X中,并将其乘以我们训练的权值矩阵,( W Q , W K , W V W^Q,W^K,W^V ).
在这里插入图片描述

X矩阵中的每一行对应于输入句子中的一个单词。 我们看到的X每一行的方框数实际上是词嵌入的维度,图中所示的和论文中是有差距的。X(图中的4个方框论文中为512个)和q / k / v向量(图中的3个方框论文中为64个),根据上面的计算过程,我们可以总结出一个self-attention层的矩阵计算公式,公式如下图所示:
在这里插入图片描述

大战多头怪

Multi-headed的机制是Transformer的另外一个特色,其目的是进一步完善self-attention层。Multi-headed主要有以下作用:

  1. 它拓展了模型关注不同位置的能力。在上面例子中可以看出,”The animal didn’t cross the street because it was too tired”**,我们的attention机制计算出“it”指代的为“animal”,这在对语言的理解过程中是很有用的。
  2. 它为attention层提供了多个representation subspaces。由下图可以看到,在self attention中,我们有多个个Query / Key / Value权重矩阵(Transformer使用8个attention heads)。这些集合中的每个矩阵都是随机初始化生成的。然后通过训练,用于将词嵌入(或者来自较低Encoder/Decoder的矢量)投影到不同的representation subspaces(表示子空间)中。
    在这里插入图片描述

通过multi-headed attention,我们为每个“header”都独立维护一套Q/K/V的权值矩阵,然后我们还是如之前单词级别的计算过程一样处理这些数据。
如果对上面的例子做同样的self-attention计算,而因为我们有8头attention,所以我们会在八个时间点去计算这些不同的权值矩阵,但最后结束时,我们会得到8个不同的矩阵。如下图:
在这里插入图片描述

说到这里,如果按照这种方式进行计算,可能会造成什么问题?
我们知道在self-attention后面紧跟着的是前馈神经网络,而前馈神经网络接受的是单个矩阵向量,而不是8个矩阵。所以我们需要一种办法,把这8个矩阵压缩成一个矩阵,那么怎么做呢? 我们可以将这8个矩阵连接在一起然后再与另一个权重矩阵 W O W^O 相乘,计算过程如下图所示:
在这里插入图片描述

到这里,multi-headed self-attention的全部内容就介绍完了,之前可能都是一些过程的图解,现在我将这些过程连接在一起,用一个整体的框图来表示一下计算的过程,这样可以加深理解。
在这里插入图片描述

现在我们已经触及了attention的header,让我们重新审视我们之前的例子,看看例句中的“it”这个单词在不同的attention header情况下会有怎样不同的关注点。
在这里插入图片描述

如图:当我们对“it”这个词进行编码时,一个注意力的焦点主要集中在“animal”上,而另一个注意力集中在“tired” .
但是,如果我们将所有注意力添加到图片中,那么事情可能更难理解:如下图所示,
在这里插入图片描述

Representing The Order of The Sequence Using Positional Encoding

使用位置编码表示序列的顺序

上面介绍了Transformer的注意力机制,我们可能忽略了去介绍一个重要的内容,就是怎么考虑输入序列中单词顺序的方法。为了解决这个问题,transformer为每个输入单词的词嵌入上添加了一个新向量-位置向量。这些位置编码向量有固定的生成方式,所以获取他们是很方便的,但是这些信息确是很有用的,他们能捕捉到每个单词的位置,或者序列中不同单词之间的距离。将这些信息也添加到词嵌入中,然后与Q/K/V向量点击,获得的attention就有了距离的信息了。
在这里插入图片描述

值得一提的是,添加的位置编码向量并不需要训练,它有一个规则的产生方式,如果我们的嵌入维度为4,那么实际上的位置编码就如下图所示:
在这里插入图片描述

那么生成位置向量需要遵循怎样的规则呢?观察下面的图形,每一行都代表着对一个矢量的位置编码。因此第一行就是我们输入序列中第一个字的嵌入向量,每行都包含512个值,每个值介于1和-1之间。我们用颜色来表示1,-1之间的值,这样方便可视化的方式表现出来:
在这里插入图片描述

这是一个20个字(行)的(512)列位置编码示例。你会发现它咋中心位置被分为了2半,这是因为左半部分的值是一由一个正弦函数生成的,而右半部分是由另一个函数(余弦)生成。然后将它们连接起来形成每个位置编码矢量。位置编码的公式在论文中有描述。这不是位置编码的唯一可能方法。然而,它具有能够扩展到看不见的序列长度的优点(例如,如果我们训练的模型被要求翻译的句子比我们训练集中的任何句子都长)。

The Residuals(残差)

现在需要介绍的是encoder过程中的每个self-attention层的左右连接情况,我们称这个为:layer-normalization 步骤。如下图所示:
在这里插入图片描述
在进一步探索其内部计算方式,我们可以将上面图层可视化为下图:
在这里插入图片描述
Decoder的子层也是同样的,如果我们想做堆叠了2个Encoder和2个Decoder的Transformer,那么它可视化就会如下图所示:
在这里插入图片描述

The Decoder Side

我们已经基本介绍完了Encoder的大多数概念,我们基本上也可以预知Decoder是怎么工作的。现在我们来仔细探讨下Decoder的数据计算原理。
当序列输入时,Encoder开始工作,最后在其顶层的Encoder输出矢量组成的列表,然后我们将其转化为一组attention的集合(K,V),K,V)将带入每个Decoder的“encoder-decoder attention”层中去计算(这样有助于decoder捕获输入序列的位置信息)。
在这里插入图片描述

完成encoder阶段后,我们开始decoder阶段,decoder阶段中的每个步骤输出来自输出序列的元素(在这种情况下为英语翻译句子)。上面实际上已经是应用的阶段了,那我们训练阶段是如何的呢?
我们以下图的步骤进行训练,直到输出一个特殊的符号,表示已经完成了。 The output of each step is fed to the bottom decoder in the next time step, and the decoders bubble up their decoding results just like the encoders did. 对于Decoder,和Encoder一样,我们在每个Decoder的输入做词嵌入并添加上表示每个字位置的位置编码。
在这里插入图片描述

Decoder中的self-attention与Encoder的self-attention略有不同:
在Decoder中,self attention只关注输出序列中的较早的位置。这是在self attention计算中的softmax步骤之前屏蔽了特征位置(设置为 -inf)来完成的。
“Encoder-Decoder Attention”层的工作方式与"Multi-Headed Self-Attention"一样,只是它从下面的层创建其Query矩阵,并在Encoder堆栈的输出中获取Key和Value的矩阵。

The Final Linear and Softmax Layer

Decoder的输出是浮点数的向量列表。我们是如何将其变成一个单词的呢?这就是最终的线性层和softmax层所做的工作。线性层是一个简单的全连接神经网络,它是由Decoder堆栈产生的向量投影到一个更大,更大的向量中,称为对数向量。假设实验中我们的模型从训练数据集上总共学习到1万个英语单词(“Output Vocabulary”)。这对应的Logits矢量也有1万个长度-每一段表示了一个唯一单词的得分。在线性层之后是一个softmax层,softmax将这些分数转换为概率。选取概率最高的索引,然后通过这个索引找到对应的单词作为输出。
在这里插入图片描述

上图是从Decoder的输出开始到最终softmax的输出。一步一步的图解。

Overview process of Training

以上讲解的就是Transformer模型的全部细节了,现在我们重新梳理一下。在训练期间,未经训练的模型将通过如上的流程一步一步计算的。而且因为我们是在对标记的训练数据集进行训练(机器翻译可以看做双语平行语聊),那么我们可以将模型输出与实际的正确答案相比较,来进行反向传播。
为了更好的理解这部分内容,我们假设我们输出的词汇只有(“a”,“am”,“i”,“thanks”,“student”和“”(“句末”的缩写)).这样一来,我们的词汇表就确定了,如下图所示:

在这里插入图片描述

以上词汇表是我们在训练之前就已经确定的,然后使用相同宽度的向量来表示词汇表中的每个单词。称为one-hot编码。例如,我们可以使用下面向量来表示单词“a在这里插入图片描述

输入单词进行词嵌入之后,便可以输入模型训练,模型训练离不开loss函数,假设我们正在训练一个模型,比如将“merci”翻译成“谢谢”。这意味着我们希望模型计算后的输出为“谢谢”,但由于这种模式还没有接受过训练,所以这种情况不太可能发生。
在这里插入图片描述

这是因为模型的参数(权重)都是随机初始化的,因此(未经训练的)模型对每个单词产生的概率分布是具有无限可能的,但是我们可以通过其余实际我们期望的输出进行比较,然后利用反向传播调整所有模型的权重,使得输出更接近所需的输出。那么问题来了,那么如何比较算法预测值与真实期望值呢?这个场景下,最常用的就是交叉熵损失(crossentropy function).
但是,需要注意的是,这只是一个很简单的demo,真实情况下,我们需要输出一个更长的句子,例如。输入:“je suis étudiant”和预期输出:“I am a student”。这样的句子输入,意味着我们的模型能够连续的输出概率分布。其中:

  • 每个概率分布由宽度为vocab_size的向量表示(在我们的示例中vocab_size为6,但实际上可能为3,000或10,000维度)
  • 第一概率分布在与单词“i”相关联的单元处具有最高概率
  • 第二概率分布在与单词“am”相关联的单元格中具有最高概率
  • 依此类推,直到第五个输出分布表示’ '符号,意味着预测结束。
    在这里插入图片描述

上图为:输入:“je suis étudiant”和预期输出:“I am a student”的期望预测概率分布情况。在算法模型中,虽然不能达到期望的情况,但是我们需要在训练了足够长时间之后,我们的算法模型输出的概率分布能够无限接近上述期望分布,如下图所示:
在这里插入图片描述

现在,因为模型一次生成一个输出,我们可以假设模型从该概率分布中选择具有最高概率的单词并丢弃其余的单词。这里有2个方法:一个是贪婪算法(greedy decoding),一个是波束搜索(beam search)。波束搜索是一个优化提升的技术,可以尝试去了解一下,这里不做更多解释。

补充几点:

从原论文中补充几点:

  • 多头注意力允许模型在不同的位置共同关注来自不同表示子空间的信息,只有一个注意力头,平均就会抑制这种情况。
  • 解码器中的self-attention层允许解码器中的每个位置关注解码器中的所有位置,知道包括该位置(意思中该位置之前的部分,即前文),目的是“preserve the auto-regressive property”,中文翻译为自回归特性。
  • 由于Transformer模型中没有递归和卷积的部分,为了使模型能够学习到序列的顺序信息,我们必须注入一些相对或者绝对的位置信息。于是引入了位置编码。

why self-attention?

为什么要引入self-attention,原论文中是这么解释的:

  • self-attention每层的计算复杂度相比卷积层、Rnn层的计算复杂度都要低,更有优势。
  • 并行化,self-attention可并行的计算量比卷积层和RNN大,可以并行化的计算量,由所需的最小顺序操作数来衡量,比较结果如下图所示。
  • self-attention 的远程依赖关系的学习能力比较强。在许多序列转化任务中,远距离依赖关系的学习是一个关键的挑战。影响学习这种依赖关系能力的一个关键因素就是在网络中前进和后退信号必须经过的路劲长度。输入和输出序列中任意位置组合之间的路劲越短,就越容易学习长期依赖关系。如下图所示,self-attention层的所有位置之间最长路劲长度是一个常数量级,比其他的卷积层和循环层都要低。
    在这里插入图片描述

参考内容:
博客
论文Attention is All you Need

发布了24 篇原创文章 · 获赞 2 · 访问量 1177

猜你喜欢

转载自blog.csdn.net/qq_40176087/article/details/102471240