NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

论文

NLP论文笔记合集(持续更新)

原论文:《Attention is All you Need》

最早的提出attention模型的文章:NLP经典论文:最早的提出attention模型的文章 笔记
提出输入embedding和输出embedding共享的文章:NLP论文:Weight tying 笔记

介绍

2017年6月发表的文章,Attention 通常指 Self-Attention,Multi-Head Attention就是使用了几个并行的Self-Attention,相当于多通道。它不是由这篇文章最早提出,但由这篇文章发扬光大的。

Transformer 通常指这篇文章提出的模型结构,由 encoder 和decoder组成。

特点

RNN结构能够捕获时序信息,但不能并行计算;CNN结构能够并行,但不能捕获时序信息。Transformer使用 Attention 结构代替 RNN类结构,实现了运算的并行,加速了模型,同时引入 positional encoding 来引入时序信息。

模型结构

整体结构

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

; 输入

x = ( x 1 , … , x n ) \mathbf{x}=(x_1,…,x_n)x =(x 1 ​,…,x n ​),x i x_i x i ​ 为one-hot表示的一个中文词,x \mathbf{x}x为中文的一个句子。

输出

y = ( y 1 , … , y m ) \mathbf{y}=(y_1,…,y_m)y =(y 1 ​,…,y m ​),y i y_i y i ​ 为one-hot表示的一个英文词,x \mathbf{x}x为英文的一个句子。

Attention结构

该文章中,Attention 指的是Scaled Dot-Product Attention。

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记
MatMul 是矩阵相乘。Mask(opt.)是可选的mask操作。矩阵Q , K , V Q,K,V Q ,K ,V 分别代表query,key和value,Q , K ∈ R d k × n , V ∈ R d v × n Q,K\in R^{d_k\times n},V\in R^{d_v\times n}Q ,K ∈R d k ​×n ,V ∈R d v ​×n,n n n 为输入句子的长度,即所含词的个数。

假设输入为 s x = ( s 1 , . . . , s n ) , s i ∈ R d e m b × 1 s_x=(s_1,…,s_n),s_i\in R^{d_{emb}\times 1}s x ​=(s 1 ​,…,s n ​),s i ​∈R d e m b ​×1,d e m b d_{emb}d e m b ​ 为embedding的维度。经过矩阵变换:
Q = W Q s x = ( q 1 , . . . , q n ) K = W K s x = ( k 1 , . . . , k n ) V = W V s x = ( v 1 , . . . , v n ) Q=W_Qs_x=(q_1,…,q_n)\ K=W_Ks_x=(k_1,…,k_n)\ V=W_Vs_x=(v_1,…,v_n)Q =W Q ​s x ​=(q 1 ​,…,q n ​)K =W K ​s x ​=(k 1 ​,…,k n ​)V =W V ​s x ​=(v 1 ​,…,v n ​)其中,W Q , W K ∈ R d k × d e m b , W V ∈ R d v × d e m b W_Q,W_K\in R^{d_k\times d_{emb}},W_V\in R^{d_v\times d_{emb}}W Q ​,W K ​∈R d k ​×d e m b ​,W V ​∈R d v ​×d e m b ​。

; 没有mask的情况

attention可以比喻成做阅读理解, Q Q Q 为问题,K K K 为句子的意思,V V V 为句子。Q Q Q 和 K K K 的Dot-Product为:
K ⊤ Q = [ k 1 ⊤ q 1 k 1 ⊤ q 2 k 1 ⊤ q 3 ⋯ k 1 ⊤ q n k 2 ⊤ q 1 k 2 ⊤ q 2 k 2 ⊤ q 3 ⋯ k 2 ⊤ q n k 3 ⊤ q 1 k 3 ⊤ q 2 k 3 ⊤ q 3 ⋯ k 3 ⊤ q n ⋮ ⋮ ⋮ ⋱ ⋮ k n ⊤ q 1 k n ⊤ q 2 k n ⊤ q 3 ⋯ k n ⊤ q n ] = [ a 11 a 12 a 13 ⋯ a 1 n a 21 a 22 a 23 ⋯ a 2 n a 31 a 32 a 33 ⋯ a 3 n ⋮ ⋮ ⋮ ⋱ ⋮ a n 1 a n 2 a n 3 ⋯ a n n ] K^\top Q= \begin{bmatrix} {k_1^\top q_1}&{k_1^\top q_2}&{k_1^\top q_3}&{\cdots}&{k_1^\top q_n}\ {k_2^\top q_1}&{k_2^\top q_2}&{k_2^\top q_3}&{\cdots}&{k_2^\top q_n}\ {k_3^\top q_1}&{k_3^\top q_2}&{k_3^\top q_3}&{\cdots}&{k_3^\top q_n}\ {\vdots}&{\vdots}&{\vdots}&{\ddots}&{\vdots}\ {k_n^\top q_1}&{k_n^\top q_2}&k_n^\top q_3&{\cdots}&k_n^\top q_n\ \end{bmatrix}= \begin{bmatrix} {a_{11}}&{a_{12}}&{a_{13}}&{\cdots}&{a_{1n}}\ {a_{21}}&{a_{22}}&{a_{23}}&{\cdots}&{a_{2n}}\ {a_{31}}&{a_{32}}&{a_{33}}&{\cdots}&{a_{3n}}\ {\vdots}&{\vdots}&{\vdots}&{\ddots}&{\vdots}\ {a_{n1}}&{a_{n2}}&a_{n3}&{\cdots}&a_{nn}\ \end{bmatrix}K ⊤Q =⎣⎢⎢⎢⎢⎢⎡​k 1 ⊤​q 1 ​k 2 ⊤​q 1 ​k 3 ⊤​q 1 ​⋮k n ⊤​q 1 ​​k 1 ⊤​q 2 ​k 2 ⊤​q 2 ​k 3 ⊤​q 2 ​⋮k n ⊤​q 2 ​​k 1 ⊤​q 3 ​k 2 ⊤​q 3 ​k 3 ⊤​q 3 ​⋮k n ⊤​q 3 ​​⋯⋯⋯⋱⋯​k 1 ⊤​q n ​k 2 ⊤​q n ​k 3 ⊤​q n ​⋮k n ⊤​q n ​​⎦⎥⎥⎥⎥⎥⎤​=⎣⎢⎢⎢⎢⎢⎡​a 1 1 ​a 2 1 ​a 3 1 ​⋮a n 1 ​​a 1 2 ​a 2 2 ​a 3 2 ​⋮a n 2 ​​a 1 3 ​a 2 3 ​a 3 3 ​⋮a n 3 ​​⋯⋯⋯⋱⋯​a 1 n ​a 2 n ​a 3 n ​⋮a n n ​​⎦⎥⎥⎥⎥⎥⎤​
K ⊤ q i = ( k 1 ⊤ q i , . . . , k n ⊤ q i ) ⊤ = ( a 1 i , . . . , a n i ) ⊤ = a : , i K^\top q_i=(k_1^\top q_i,…,k_n^\top q_i)^\top=(a_{1i},…,a_{ni})^\top=a_{:,i}K ⊤q i ​=(k 1 ⊤​q i ​,…,k n ⊤​q i ​)⊤=(a 1 i ​,…,a n i ​)⊤=a :,i ​ 代表用第 i i i 个词作为query,去匹配每一个key,得到每一个句子作为答案的分值,将分值 a : , i a_{:,i}a :,i ​ 除以 d k \sqrt{d_k}d k ​​后经过softmax得到比例 α : , i \alpha_{:,i}α:,i ​,按照比例抄写每一个句子去构成第 i i i 个query的答案V α : , i = [ v 1 v 2 v 3 ⋯ v n ] [ α 1 , i α 2 , i α 3 , i ⋯ α n , i ] = ∑ j = 1 n α j , i v j V\alpha_{:,i}=\begin{bmatrix} v_1&v_2&v_3&\cdots&v_n \end{bmatrix}\begin{bmatrix} \alpha_{1,i}\\alpha_{2,i}\\alpha_{3,i}\\cdots\\alpha_{n,i} \end{bmatrix}=\sum_{j=1}^n\alpha_{j,i}v_j V α:,i ​=[v 1 ​​v 2 ​​v 3 ​​⋯​v n ​​]⎣⎢⎢⎢⎢⎡​α1 ,i ​α2 ,i ​α3 ,i ​⋯αn ,i ​​⎦⎥⎥⎥⎥⎤​=j =1 ∑n ​αj ,i ​v j ​。

因此Attention函数为:
A t t e n t i o n ( Q , K , V ) = V s o f t m a x ( K ⊤ Q d k ) = [ v 1 v 2 v 3 ⋯ v n ] [ α 11 α 12 α 13 ⋯ α 1 n α 21 α 22 α 23 ⋯ α 2 n α 31 α 32 α 33 ⋯ α 3 n ⋮ ⋮ ⋮ ⋱ ⋮ α n 1 α n 2 α n 3 ⋯ α n n ] Attention(Q,K,V)=Vsoftmax(\frac{K^\top Q}{\sqrt{d_k}})=\begin{bmatrix} v_1&v_2&v_3&\cdots&v_n \end{bmatrix}\begin{bmatrix} {\alpha_{11}}&{\alpha_{12}}&{\alpha_{13}}&{\cdots}&{\alpha_{1n}}\ {\alpha_{21}}&{\alpha_{22}}&{\alpha_{23}}&{\cdots}&{\alpha_{2n}}\ {\alpha_{31}}&{\alpha_{32}}&{\alpha_{33}}&{\cdots}&{\alpha_{3n}}\ {\vdots}&{\vdots}&{\vdots}&{\ddots}&{\vdots}\ {\alpha_{n1}}&{\alpha_{n2}}&\alpha_{n3}&{\cdots}&\alpha_{nn}\ \end{bmatrix}A t t e n t i o n (Q ,K ,V )=V s o f t m a x (d k ​​K ⊤Q ​)=[v 1 ​​v 2 ​​v 3 ​​⋯​v n ​​]⎣⎢⎢⎢⎢⎢⎡​α1 1 ​α2 1 ​α3 1 ​⋮αn 1 ​​α1 2 ​α2 2 ​α3 2 ​⋮αn 2 ​​α1 3 ​α2 3 ​α3 3 ​⋮αn 3 ​​⋯⋯⋯⋱⋯​α1 n ​α2 n ​α3 n ​⋮αn n ​​⎦⎥⎥⎥⎥⎥⎤​= [ ∑ j = 1 n α j , 1 v j ∑ j = 1 n α j , 2 v j ∑ j = 1 n α j , 3 v j ⋯ ∑ j = 1 n α j , n v j ] =\begin{bmatrix}\sum_{j=1}^n\alpha_{j,1}v_j&\sum_{j=1}^n\alpha_{j,2}v_j&\sum_{j=1}^n\alpha_{j,3}v_j&\cdots&\sum_{j=1}^n\alpha_{j,n}v_j\end{bmatrix}=[∑j =1 n ​αj ,1 ​v j ​​∑j =1 n ​αj ,2 ​v j ​​∑j =1 n ​αj ,3 ​v j ​​⋯​∑j =1 n ​αj ,n ​v j ​​]Scaled 指除以 d k \sqrt{d_k}d k ​​。

有mask的情况

前面不使用mask的情况是因为在解码的过程中,输入是一个完整的句子,因为每一个词都可以去匹配任何一个词。而解码的过程,我们不允许当前词去关注位置在其后面的词,因为预测模型是基于当前时刻以前的词去预测未来的词,而不可能基于未来的词去预测当前时刻的词。所以第 i i i 个词的query只能匹配比 i i i 位置小的词的key,mask会将非法匹配的分值替换成− ∞ -\infty −∞,那么它在softmax后就会变成0。此时Q Q Q 和 K K K 的Dot-Product为:
K ⊤ Q = [ k 1 ⊤ q 1 k 1 ⊤ q 2 k 1 ⊤ q 3 ⋯ k 1 ⊤ q n k 2 ⊤ q 1 k 2 ⊤ q 2 k 2 ⊤ q 3 ⋯ k 2 ⊤ q n k 3 ⊤ q 1 k 3 ⊤ q 2 k 3 ⊤ q 3 ⋯ k 3 ⊤ q n ⋮ ⋮ ⋮ ⋱ ⋮ k n ⊤ q 1 k n ⊤ q 2 k n ⊤ q 3 ⋯ k n ⊤ q n ] = [ a 11 a 12 a 13 ⋯ a 1 n − ∞ a 22 a 23 ⋯ a 2 n − ∞ − ∞ a 33 ⋯ a 3 n ⋮ ⋮ ⋮ ⋱ ⋮ − ∞ − ∞ − ∞ ⋯ a n n ] K^\top Q= \begin{bmatrix} {k_1^\top q_1}&{k_1^\top q_2}&{k_1^\top q_3}&{\cdots}&{k_1^\top q_n}\ {k_2^\top q_1}&{k_2^\top q_2}&{k_2^\top q_3}&{\cdots}&{k_2^\top q_n}\ {k_3^\top q_1}&{k_3^\top q_2}&{k_3^\top q_3}&{\cdots}&{k_3^\top q_n}\ {\vdots}&{\vdots}&{\vdots}&{\ddots}&{\vdots}\ {k_n^\top q_1}&{k_n^\top q_2}&k_n^\top q_3&{\cdots}&k_n^\top q_n\ \end{bmatrix}= \begin{bmatrix} {a_{11}}&{a_{12}}&{a_{13}}&{\cdots}&{a_{1n}}\ {-\infty}&{a_{22}}&{a_{23}}&{\cdots}&{a_{2n}}\ {-\infty}&{-\infty}&{a_{33}}&{\cdots}&{a_{3n}}\ {\vdots}&{\vdots}&{\vdots}&{\ddots}&{\vdots}\ {-\infty}&{-\infty}&-\infty&{\cdots}&a_{nn}\ \end{bmatrix}K ⊤Q =⎣⎢⎢⎢⎢⎢⎡​k 1 ⊤​q 1 ​k 2 ⊤​q 1 ​k 3 ⊤​q 1 ​⋮k n ⊤​q 1 ​​k 1 ⊤​q 2 ​k 2 ⊤​q 2 ​k 3 ⊤​q 2 ​⋮k n ⊤​q 2 ​​k 1 ⊤​q 3 ​k 2 ⊤​q 3 ​k 3 ⊤​q 3 ​⋮k n ⊤​q 3 ​​⋯⋯⋯⋱⋯​k 1 ⊤​q n ​k 2 ⊤​q n ​k 3 ⊤​q n ​⋮k n ⊤​q n ​​⎦⎥⎥⎥⎥⎥⎤​=⎣⎢⎢⎢⎢⎢⎡​a 1 1 ​−∞−∞⋮−∞​a 1 2 ​a 2 2 ​−∞⋮−∞​a 1 3 ​a 2 3 ​a 3 3 ​⋮−∞​⋯⋯⋯⋱⋯​a 1 n ​a 2 n ​a 3 n ​⋮a n n ​​⎦⎥⎥⎥⎥⎥⎤​
Attention函数为:
A t t e n t i o n ( Q , K , V ) = V s o f t m a x ( K ⊤ Q d k ) = [ v 1 v 2 v 3 ⋯ v n ] [ α 11 α 12 α 13 ⋯ α 1 n 0 α 22 α 23 ⋯ α 2 n 0 0 α 33 ⋯ α 3 n ⋮ ⋮ ⋮ ⋱ ⋮ 0 0 0 ⋯ α n n ] Attention(Q,K,V)=Vsoftmax(\frac{K^\top Q}{\sqrt{d_k}})=\begin{bmatrix} v_1&v_2&v_3&\cdots&v_n \end{bmatrix}\begin{bmatrix} {\alpha_{11}}&{\alpha_{12}}&{\alpha_{13}}&{\cdots}&{\alpha_{1n}}\ {0}&{\alpha_{22}}&{\alpha_{23}}&{\cdots}&{\alpha_{2n}}\ {0}&{0}&{\alpha_{33}}&{\cdots}&{\alpha_{3n}}\ {\vdots}&{\vdots}&{\vdots}&{\ddots}&{\vdots}\ {0}&{0}&0&{\cdots}&\alpha_{nn}\ \end{bmatrix}A t t e n t i o n (Q ,K ,V )=V s o f t m a x (d k ​​K ⊤Q ​)=[v 1 ​​v 2 ​​v 3 ​​⋯​v n ​​]⎣⎢⎢⎢⎢⎢⎡​α1 1 ​0 0 ⋮0 ​α1 2 ​α2 2 ​0 ⋮0 ​α1 3 ​α2 3 ​α3 3 ​⋮0 ​⋯⋯⋯⋱⋯​α1 n ​α2 n ​α3 n ​⋮αn n ​​⎦⎥⎥⎥⎥⎥⎤​
= [ ∑ j = 1 n α j , 1 v j ∑ j = 1 n α j , 2 v j ∑ j = 1 n α j , 3 v j ⋯ ∑ j = 1 n α j , n v j ] =\begin{bmatrix}\sum_{j=1}^n\alpha_{j,1}v_j&\sum_{j=1}^n\alpha_{j,2}v_j&\sum_{j=1}^n\alpha_{j,3}v_j&\cdots&\sum_{j=1}^n\alpha_{j,n}v_j\end{bmatrix}=[∑j =1 n ​αj ,1 ​v j ​​∑j =1 n ​αj ,2 ​v j ​​∑j =1 n ​αj ,3 ​v j ​​⋯​∑j =1 n ​αj ,n ​v j ​​]

Input Embedding and Positional Encoding

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

; 输入

x = ( x 1 , … , x n ) \mathbf{x}=(x_1,…,x_n)x =(x 1 ​,…,x n ​),x i x_i x i ​ 为one-hot表示的一个中文词,x \mathbf{x}x 为中文的一个句子,x i ∈ R C s × 1 x_i\in R^{C_s \times 1}x i ​∈R C s ​×1,C s C_s C s ​ 为源词汇表(source vocabulary)的大小。

Input Embedding

将输入投影到 embedding 空间中:W s , e m b x W_{s,emb}\mathbf{x}W s ,e m b ​x,W s , e m b W_{s,emb}W s ,e m b ​ 为源词汇表(source vocabulary)的 word embedding,W s , e m b ∈ R 512 × C s W_{s,emb}\in R^{512 \times C_s}W s ,e m b ​∈R 5 1 2 ×C s ​,embedding 维度为512。

Positional Encoding

位置编码 P E PE P E 与 embedding 具有相同的维度d m o d e l = 512 d_{model}=512 d m o d e l ​=5 1 2,因此可以将两者相加。P E ∈ R 512 × n PE\in R^{512\times n}P E ∈R 5 1 2 ×n。

使用不同频率的正弦和余弦函数:
P E ( p o s , i ) = { s i n ( p o s / 1000 0 f l o o r ( i / 2 ) / d m o d e l ) , i = 0 , 2 , . . . 2 k , . . . 510 c o s ( p o s / 1000 0 f l o o r ( i / 2 ) / d m o d e l ) , i = 1 , 3 , . . . 2 k + 1 , . . . 511 PE_{(pos,i)}=\left{ \begin{aligned} sin(pos/10000^{floor(i/2)/d_{model}})&,\quad i=0,2,…2k,…510\ cos(pos/10000^{floor(i/2)/d_{model}})&,\quad i=1,3,…2k+1,…511 \end{aligned} \right.P E (p o s ,i )​={s i n (p o s /1 0 0 0 0 f l o o r (i /2 )/d m o d e l ​)c o s (p o s /1 0 0 0 0 f l o o r (i /2 )/d m o d e l ​)​,i =0 ,2 ,…2 k ,…5 1 0 ,i =1 ,3 ,…2 k +1 ,…5 1 1 ​其中p o s pos p o s代表输入词在句子中所处第 p o s pos p o s 个位置,p o s = 1 , . . . , n pos=1,…,n p o s =1 ,…,n。i i i 代表模型第 i i i 个维度,即 embedding 的第 i i i 个维度,i = 0 , . . . , 511 i=0,…,511 i =0 ,…,5 1 1 。f l o o r ( ⋅ ) floor(\cdot)f l o o r (⋅) 代表向下取整。

位置编码的每个维度对应一个正弦曲线。波长形成从 2 π 2π2 π 到 10000 ⋅ 2 π 10000\cdot 2π1 0 0 0 0 ⋅2 π 的几何级数。我们之所以选择这个函数,是因为我们假设它可以让模型通过相对位置轻松学习如何关注信息,因为对于任何固定偏移量 k k k,P E p o s + k PE_{pos+k}P E p o s +k ​可以表示为P E p o s PE_{pos}P E p o s ​的线性函数。

输出

最后得到 encoder 的输入为:s x 0 = W s , e m b x + P E , s x 0 ∈ R 512 × n s_{x0}=W_{s,emb}\mathbf{x}+PE,s_{x0} \in R^{512\times n}s x 0 ​=W s ,e m b ​x +P E ,s x 0 ​∈R 5 1 2 ×n。

Encoder

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记
encoder由 N = 6 N=6 N =6 个相同层堆叠而成。每层有两个子层。第一个子层是multi-head self-attention结构,第二个子层是简单的、对应位置逐个相乘的全连接前馈网络。我们在两个子层的每个层周围使用residual connection[10],然后进行layer normalization[1]。也就是说,每个子层的输出是LayerNorm(x+Sublayer(x)),其中Sublayer(x)是由子层本身实现的函数。

; 第一个子层

Multi-Head Attention

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记
h h h 为Head的个数。Multi-Head Attention通过把输入降维后,经过多通道即h h h 个Head分别进行attention,再将各个输出拼接成原始的维度。Multi-Head 的用意是希望每一个Head能关注到不同的信息,就好像多个人一起做阅读理解,再把答案汇总,希望答案更加全面。

将输入 s x 0 s_{x0}s x 0 ​ 转换成降维后的 Q i , K i , V i Q_i,K_i,V_i Q i ​,K i ​,V i ​:
Q = W Q s x 0 = [ Q 1 Q 2 Q 3 ⋯ Q h ] , K = W K s x 0 = [ K 1 K 2 K 3 ⋯ K h ] , V = W V s x 0 = [ V 1 V 2 V 3 ⋯ V h ] , Q=W_Qs_{x0}=\begin{bmatrix} Q_1\Q_2\Q_3\\cdots\Q_h \end{bmatrix},\quad K=W_Ks_{x0}=\begin{bmatrix} K_1\K_2\K_3\\cdots\K_h \end{bmatrix},\quad V=W_Vs_{x0}=\begin{bmatrix} V_1\V_2\V_3\\cdots\V_h \end{bmatrix},\quad Q =W Q ​s x 0 ​=⎣⎢⎢⎢⎢⎡​Q 1 ​Q 2 ​Q 3 ​⋯Q h ​​⎦⎥⎥⎥⎥⎤​,K =W K ​s x 0 ​=⎣⎢⎢⎢⎢⎡​K 1 ​K 2 ​K 3 ​⋯K h ​​⎦⎥⎥⎥⎥⎤​,V =W V ​s x 0 ​=⎣⎢⎢⎢⎢⎡​V 1 ​V 2 ​V 3 ​⋯V h ​​⎦⎥⎥⎥⎥⎤​,其中
Q i ∈ R d q × n , W Q ∈ R d m o d e l × d e m b , Q ∈ R d m o d e l × n , Q_i\in R^{d_q\times n}, W_Q\in R^{d_{model}\times d_{emb}},Q\in R^{d_{model}\times n},Q i ​∈R d q ​×n ,W Q ​∈R d m o d e l ​×d e m b ​,Q ∈R d m o d e l ​×n ,
K i ∈ R d k × n , W K ∈ R d m o d e l × d e m b , K ∈ R d m o d e l × n , K_i\in R^{d_k\times n},W_K\in R^{d_{model}\times d_{emb}},K\in R^{d_{model}\times n},K i ​∈R d k ​×n ,W K ​∈R d m o d e l ​×d e m b ​,K ∈R d m o d e l ​×n ,
V i ∈ R d v × n , W V ∈ R d m o d e l × d e m b , V ∈ R d m o d e l × n , V_i\in R^{d_v\times n},W_V\in R^{d_{model}\times d_{emb}},V\in R^{d_{model}\times n},V i ​∈R d v ​×n ,W V ​∈R d m o d e l ​×d e m b ​,V ∈R d m o d e l ​×n ,
h = 8 h=8 h =8,d q = d k = d v = d m o d e l / h = 64 d_q=d_k=d_v=d_{model}/h=64 d q ​=d k ​=d v ​=d m o d e l ​/h =6 4。然后使用上文中的attention函数公式:
H e a d i = A t t e n t i o n ( Q i , K i , V i ) = V i s o f t m a x ( K i ⊤ Q i d k ) Head_i=Attention(Q_i,K_i,V_i)=V_isoftmax(\frac{K_i^\top Q_i}{\sqrt{d_k}})H e a d i ​=A t t e n t i o n (Q i ​,K i ​,V i ​)=V i ​s o f t m a x (d k ​​K i ⊤​Q i ​​)M u l t i H e a d ( Q , K , V ) = W O [ h e a d 1 h e a d 2 h e a d 3 ⋯ h e a d h ] MultiHead(Q, K, V ) = W^O\begin{bmatrix} head_1\head_2\head_3\\cdots\head_h \end{bmatrix}M u l t i H e a d (Q ,K ,V )=W O ⎣⎢⎢⎢⎢⎡​h e a d 1 ​h e a d 2 ​h e a d 3 ​⋯h e a d h ​​⎦⎥⎥⎥⎥⎤​其中 W O ∈ R d m o d e l × d m o d e l , M u l t i H e a d ∈ R d m o d e l × n W^O\in R^{d_{model}\times d_{model}},MultiHead\in R^{d_{model}\times n}W O ∈R d m o d e l ​×d m o d e l ​,M u l t i H e a d ∈R d m o d e l ​×n。

; Add & Norm层

Add层

Add为residual connection,残差连接,即
r e s x 1 = s x 0 + M u l t i H e a d ( s x 0 ) , r e s x 1 ∈ R d m o d e l × n res_{x1}=s_{x0}+MultiHead(s_{x0}),\quad res_{x1}\in R^{d_{model}\times n}r e s x 1 ​=s x 0 ​+M u l t i H e a d (s x 0 ​),r e s x 1 ​∈R d m o d e l ​×n

Norm层

Norm为layer normalization,它与batch normalization可以参考NLP中 batch normalization与 layer normalizationCV经典论文:Batch Normalization 笔记NLP经典论文:Layer Normalization 笔记

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

layer normalization就是对这个 d m o d e l d_{model}d m o d e l ​ 维的embedding进行normalization。具体来说,r e s x 1 , 1 res_{x1,1}r e s x 1 ,1 ​ 为 r e s x 1 res_{x1}r e s x 1 ​ 第一个位置的列向量,r e s x 1 , 1 ∈ R d m o d e l × 1 res_{x1,1}\in R^{d_{model}\times 1}r e s x 1 ,1 ​∈R d m o d e l ​×1,对它进行layer normalization:
r e s x 1 , 1 = [ r 1 r 2 r 3 ⋯ r d m o d e l ] T , res_{x1,1}=\begin{bmatrix}r_1&r_2&r_3&\cdots&r_{d_{model}}\end{bmatrix}^T ,r e s x 1 ,1 ​=[r 1 ​​r 2 ​​r 3 ​​⋯​r d m o d e l ​​​]T ,r ‾ = ∑ i = 1 d m o d e l r i , σ = 1 d m o d e l ∑ i = 1 d m o d e l ( r i − r ‾ ) 2 , \overline{r}=\sum\limits_{i=1}^{d_{model}}r_i,\quad \sigma=\sqrt{\frac{1}{d_{model}}\sum\limits_{i=1}^{d_{model}}(r_i-\overline{r})^2},r =i =1 ∑d m o d e l ​​r i ​,σ=d m o d e l ​1 ​i =1 ∑d m o d e l ​​(r i ​−r )2 ​,r e s ^ x 1 , 1 = [ r ^ 1 r ^ 2 r ^ 3 ⋯ r ^ d m o d e l ] T = [ r 1 − r ‾ σ r 2 − r ‾ σ r 3 − r ‾ σ ⋯ r d m o d e l − r ‾ σ ] T , \hat{res}{x1,1}=\begin{bmatrix}\hat{r}_1&\hat{r}_2&\hat{r}_3&\cdots&\hat{r}{d_{model}}\end{bmatrix}^T =\begin{bmatrix}\frac{r_1-\overline{r}}{\sigma}&\frac{r_2-\overline{r}}{\sigma}&\frac{r_3-\overline{r}}{\sigma}&\cdots&\frac{r_{d_{model}}-\overline{r}}{\sigma}\end{bmatrix}^T,r e s ^x 1 ,1 ​=[r ^1 ​​r ^2 ​​r ^3 ​​⋯​r ^d m o d e l ​​​]T =[σr 1 ​−r ​​σr 2 ​−r ​​σr 3 ​−r ​​⋯​σr d m o d e l ​​−r ​​]T ,L N ( r e s x 1 , 1 ) = γ r e s ^ x 1 , 1 + β LN(res_{x1,1})=\gamma \hat{res}{x1,1}+\beta L N (r e s x 1 ,1 ​)=γr e s ^x 1 ,1 ​+βγ , β ∈ R d m o d e l × 1 \gamma,\beta \in R^{d{model} \times 1}γ,β∈R d m o d e l ​×1,是需要学习的2个参数,r e s x 1 res_{x1}r e s x 1 ​ 的每一个列向量共享这2个参数。

所以Norm层的输出为:L N x 1 = L N ( r e s x 1 ) ∈ R d m o d e l × n LN_{x1}=LN(res_{x1})\in R^{d_{model}\times n}L N x 1 ​=L N (r e s x 1 ​)∈R d m o d e l ​×n

; 第二个子层

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

Position-wise Feed-Forward Networks

一个全连接的前馈网络,该网络分别相同地应用于每个位置。这包括两个线性变换,中间有一个ReLU激活。 虽然线性变换在不同位置上是相同的,但它们在层与层之间使用不同的参数。对于 L N x 1 LN_{x1}L N x 1 ​ 的第 i i i 个位置,L N x 1 , i ∈ R d m o d e l × 1 LN_{x1,i}\in R^{d_{model}\times 1}L N x 1 ,i ​∈R d m o d e l ​×1,经过Feed-Forward Networks后:
F F N ( L N x 1 , i ) = W 2 R e L U ( W 1 L N x 1 , i + b 1 ) + b 2 FFN(LN_{x1,i}) = W_2ReLU(W_1LN_{x1,i}+b_1)+b_2 F F N (L N x 1 ,i ​)=W 2 ​R e L U (W 1 ​L N x 1 ,i ​+b 1 ​)+b 2 ​其中 W 1 ∈ R d f f × d m o d e l , b 1 ∈ R d f f × 1 , W_1\in R^{d_{ff}\times d_{model}},b_1\in R^{d_{ff}\times 1},W 1 ​∈R d f f ​×d m o d e l ​,b 1 ​∈R d f f ​×1 ,W 2 ∈ R d m o d e l × d f f , b 2 ∈ R d m o d e l × 1 W_2\in R^{d_{model}\times d_{ff}},b_2\in R^{d_{model}\times 1}W 2 ​∈R d m o d e l ​×d f f ​,b 2 ​∈R d m o d e l ​×1内层的维数为 d f f = 2048 d_{ff}=2048 d f f ​=2 0 4 8。

所以此子层的输出为:F F N ( L N x 1 ) ∈ R d m o d e l × n FFN(LN_{x1})\in R^{d_{model}\times n}F F N (L N x 1 ​)∈R d m o d e l ​×n。

Add & Norm层

与前一个子层类似,经过residual connection(残差连接)和layer normalization后的输出为:L N x 2 ∈ R d m o d e l × n LN_{x2}\in R^{d_{model}\times n}L N x 2 ​∈R d m o d e l ​×n。

自此完成encoder一个层的输出,经过6个相同的层后,输出为:z ∈ R d m o d e l × n \mathbf{z}\in R^{d_{model}\times n}z ∈R d m o d e l ​×n。

Decoder

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记
decoder也由N=6个相同层的堆栈组成。除了encoder层中的两个子层之外,decoder还插入了子层,该子层对encoder堆的输出执行multi-head attention。

; 输入

在介绍decoder之前,要先介绍一下它的输入,即word embedding和positional encoding层的输出 s y 0 \mathbf{s}{y0}s y 0 ​,s y 0 ∈ R 512 × m s{y0} \in R^{512\times m}s y 0 ​∈R 5 1 2 ×m。

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

必须注意的是
在训练过程中,outputs ∈ R d m o d e l × m \in R^{d_{model}\times m}∈R d m o d e l ​×m,m m m 为输出句子 y = ( y 1 , . . . , y m ) \mathbf{y}=(y_1,…,y_m)y =(y 1 ​,…,y m ​) 的长度。(严格来说,在编程中,这个 m m m 应该是目标语句的最大长度,不够长度的句子需要使用 ′ P A D ′ ‘PAD’′P A D ′ 补零。)而这个shifted right指的是outputs = y s h i f t e d = ( ′ B O S ′ , y 1 , . . . , y m − 1 ) =\mathbf{y}{shifted}=(‘BOS’,y_1,…,y{m-1})=y s h i f t e d ​=(′B O S ′,y 1 ​,…,y m −1 ​),′ B O S ′ ‘BOS’′B O S ′ 是begin of sentence,代表句子的起始,相当于给它一个初始值。像sequence to sequence那样的模型的decoder的输出维度是R d m o d e l × 1 R^{d_{model}\times 1}R d m o d e l ​×1,而此模型的decoder的输出维度为R d m o d e l × m R^{d_{model}\times m}R d m o d e l ​×m,对应的就是y = ( y 1 , . . . , y m ) \mathbf{y}=(y_1,…,y_m)y =(y 1 ​,…,y m ​) 的embedding,outputs叫做 y \mathbf{y}y的shifted right。这就意味着它不像sequence to sequence那样需要每迭代一次只计算一个时间步的预测词,此模型的decoder的输出就是 m m m 个时间步的预测词的embedding。

在预测过程中,outputs是需要反复迭代的。

t=1时刻,outputs = ( ′ B O S ′ , ′ P A D ′ , . . . , ′ P A D ′ ) =(‘BOS’,’PAD’,…,’PAD’)=(′B O S ′,′P A D ′,…,′P A D ′),decoder的输出为= ( y ^ 1 , ′ P A D ′ , . . . , ′ P A D ′ ) =(\hat{y}1,’PAD’,…,’PAD’)=(y ^​1 ​,′P A D ′,…,′P A D ′);
t时刻,outputs = ( ′ B O S ′ , y ^ 1 , . . . , y ^ t − 1 , . . . , ′ P A D ′ ) =(‘BOS’,\hat{y}_1,…,\hat{y}
{t-1},…,’PAD’)=(′B O S ′,y ^​1 ​,…,y ^​t −1 ​,…,′P A D ′),decoder的输出为= ( y ^ 1 , . . . , y ^ t − 1 , y ^ t , . . . , ′ P A D ′ ) =(\hat{y}1,…,\hat{y}{t-1},\hat{y}_{t},…,’PAD’)=(y ^​1 ​,…,y ^​t −1 ​,y ^​t ​,…,′P A D ′)。

W t , e m b W_{t,emb}W t ,e m b ​ 为目标词汇表(target vocabulary)的word embedding,W t , e m b ∈ R 512 × C t W_{t,emb}\in R^{512\times C_t}W t ,e m b ​∈R 5 1 2 ×C t ​,C t C_t C t ​ 为目标词汇表的大小。文章的引用文献[24]将模型的输入embedding和输出embedding tie在一起,即共享一个embedding空间,同一个词在输入embed时和输出embed时会embed成同一个embedding向量。在翻译模型中,如果2种语言的subword共享率非常高,甚至可以实现编码器的输入embedding、解码器的输入embedding和解码器的输出embedding 三者共享。详细见NLP论文:Weight tying 笔记

所以word embedding和positional encoding层的输出 s y 0 = W t , e m b y s h i f t e d + P E ( y s h i f t e d ) , s y 0 ∈ R 512 × m \mathbf{s}{y0}=W{t,emb}\mathbf{y}{shifted}+PE(\mathbf{y}{shifted}),s_{y0} \in R^{512\times m}s y 0 ​=W t ,e m b ​y s h i f t e d ​+P E (y s h i f t e d ​),s y 0 ​∈R 5 1 2 ×m。

第一个子层

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

; Masked Multi-Head Attention

正如上文中masked attention的介绍,Q Q Q 和 K K K 的Dot-Product为:
K ⊤ Q = [ k 1 ⊤ q 1 k 1 ⊤ q 2 k 1 ⊤ q 3 ⋯ k 1 ⊤ q n k 2 ⊤ q 1 k 2 ⊤ q 2 k 2 ⊤ q 3 ⋯ k 2 ⊤ q n k 3 ⊤ q 1 k 3 ⊤ q 2 k 3 ⊤ q 3 ⋯ k 3 ⊤ q n ⋮ ⋮ ⋮ ⋱ ⋮ k n ⊤ q 1 k n ⊤ q 2 k n ⊤ q 3 ⋯ k n ⊤ q n ] = [ a 11 a 12 a 13 ⋯ a 1 n − ∞ a 22 a 23 ⋯ a 2 n − ∞ − ∞ a 33 ⋯ a 3 n ⋮ ⋮ ⋮ ⋱ ⋮ − ∞ − ∞ − ∞ ⋯ a n n ] K^\top Q= \begin{bmatrix} {k_1^\top q_1}&{k_1^\top q_2}&{k_1^\top q_3}&{\cdots}&{k_1^\top q_n}\ {k_2^\top q_1}&{k_2^\top q_2}&{k_2^\top q_3}&{\cdots}&{k_2^\top q_n}\ {k_3^\top q_1}&{k_3^\top q_2}&{k_3^\top q_3}&{\cdots}&{k_3^\top q_n}\ {\vdots}&{\vdots}&{\vdots}&{\ddots}&{\vdots}\ {k_n^\top q_1}&{k_n^\top q_2}&k_n^\top q_3&{\cdots}&k_n^\top q_n\ \end{bmatrix}= \begin{bmatrix} {a_{11}}&{a_{12}}&{a_{13}}&{\cdots}&{a_{1n}}\ {-\infty}&{a_{22}}&{a_{23}}&{\cdots}&{a_{2n}}\ {-\infty}&{-\infty}&{a_{33}}&{\cdots}&{a_{3n}}\ {\vdots}&{\vdots}&{\vdots}&{\ddots}&{\vdots}\ {-\infty}&{-\infty}&-\infty&{\cdots}&a_{nn}\ \end{bmatrix}K ⊤Q =⎣⎢⎢⎢⎢⎢⎡​k 1 ⊤​q 1 ​k 2 ⊤​q 1 ​k 3 ⊤​q 1 ​⋮k n ⊤​q 1 ​​k 1 ⊤​q 2 ​k 2 ⊤​q 2 ​k 3 ⊤​q 2 ​⋮k n ⊤​q 2 ​​k 1 ⊤​q 3 ​k 2 ⊤​q 3 ​k 3 ⊤​q 3 ​⋮k n ⊤​q 3 ​​⋯⋯⋯⋱⋯​k 1 ⊤​q n ​k 2 ⊤​q n ​k 3 ⊤​q n ​⋮k n ⊤​q n ​​⎦⎥⎥⎥⎥⎥⎤​=⎣⎢⎢⎢⎢⎢⎡​a 1 1 ​−∞−∞⋮−∞​a 1 2 ​a 2 2 ​−∞⋮−∞​a 1 3 ​a 2 3 ​a 3 3 ​⋮−∞​⋯⋯⋯⋱⋯​a 1 n ​a 2 n ​a 3 n ​⋮a n n ​​⎦⎥⎥⎥⎥⎥⎤​会把 i < j i 的 q i k j q_ik_j q i ​k j ​ 给mask掉,因为处于未来的词,是不能用于预测当前时刻的词的,意思就是计算 p ( y ^ t ∣ y 1 , . . . y t − 1 ) p(\hat{y}t|y_1,…y{t-1})p (y ^​t ​∣y 1 ​,…y t −1 ​)时不能基于大于等于 t t t 时刻的 y y y来预测。

所以此层的输出为:M a s k e d M u l t i H e a d ( s y 0 ) ∈ R 512 × m MaskedMultiHead(s_{y0})\in R^{512\times m}M a s k e d M u l t i H e a d (s y 0 ​)∈R 5 1 2 ×m

Add & Norm层

与encoder层中类似,经过residual connection(残差连接)后的输出为:r e s y 1 = s y 0 + M a s k e d M u l t i H e a d ( s y 0 ) , r e s y 1 ∈ R d m o d e l × m res_{y1}=s_{y0}+MaskedMultiHead(s_{y0}),\quad res_{y1}\in R^{d_{model}\times m}r e s y 1 ​=s y 0 ​+M a s k e d M u l t i H e a d (s y 0 ​),r e s y 1 ​∈R d m o d e l ​×m

经过layer normalization后的输出为:L N y 1 = L N ( r e s y 1 ) ∈ R d m o d e l × m LN_{y1}=LN(res_{y1})\in R^{d_{model}\times m}L N y 1 ​=L N (r e s y 1 ​)∈R d m o d e l ​×m。

第二个子层

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

; Multi-Head Attention

这里Attention中的 K , V K,V K ,V使用encoder的输出 z ∈ R d m o d e l × n \mathbf{z}\in R^{d_{model}\times n}z ∈R d m o d e l ​×n作为输入,Q Q Q 使用上一个子层的输出 L N y 1 LN_{y1}L N y 1 ​ 作为输入。

此层的输出为M u l t i H e a d ( Q , K , V ) = M u l t i H e a d ( W Q z , W K z , W Q L N y 1 ) MultiHead(Q, K, V ) = MultiHead(W_Q\mathbf{z}, W_K\mathbf{z}, W_QLN_{y1} )M u l t i H e a d (Q ,K ,V )=M u l t i H e a d (W Q ​z ,W K ​z ,W Q ​L N y 1 ​)

Add & Norm层

与上一个子层中类似,经过residual connection(残差连接)和layer normalization后的输出为:L N y 2 = L N ( r e s y 2 ) ∈ R d m o d e l × m LN_{y2}=LN(res_{y2})\in R^{d_{model}\times m}L N y 2 ​=L N (r e s y 2 ​)∈R d m o d e l ​×m。

第三个子层

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

; Position-wise Feed-Forward Networks

与encoder中类似,所以此子层的输出为:F F N ( L N y 2 ) ∈ R d m o d e l × n FFN(LN_{y2})\in R^{d_{model}\times n}F F N (L N y 2 ​)∈R d m o d e l ​×n。

Add & Norm层

经过residual connection(残差连接)和layer normalization后的输出为:L N y 3 = L N ( F F N ( L N y 2 ) ) ∈ R d m o d e l × m LN_{y3}=LN(FFN(LN_{y2}))\in R^{d_{model}\times m}L N y 3 ​=L N (F F N (L N y 2 ​))∈R d m o d e l ​×m。

自此完成decoder一个层的输出,经过6个相同的层后,输出为:h = ( h 1 , … , h m ) , h ∈ R d m o d e l × m \mathbf{h}=(h_1,…,h_m),\mathbf{h}\in R^{d_{model}\times m}h =(h 1 ​,…,h m ​),h ∈R d m o d e l ​×m。h i h_i h i ​ 就是sequence to sequence模型中的第 i i i 个 annotation, i i i 个 hidden state,也相对于预测词的embedding。

Linear层

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

这个层的输出为:e = W t , e m b ⊤ h \mathbf{e}=W_{t,emb}\top\mathbf{h}e =W t ,e m b ​⊤h,W t , e m b ⊤ ∈ R C t × 512 , e ∈ R C t × m W_{t,emb}\top \in R^{C_t\times 512},\mathbf{e}\in R^{C_t\times m}W t ,e m b ​⊤∈R C t ​×5 1 2 ,e ∈R C t ​×m,因为decoder的输出embedding和它的输入embedding共享,所以这里线性层的参数为 W t , e m b ⊤ W_{t,emb}\top W t ,e m b ​⊤。

; Softmax

将 e \mathbf{e}e 的每一列 e t e_t e t ​ 进行softmax:p ( y t ∣ y t − 1 , . . . y 1 , x ) = e x p ( e t , y t ) ∑ j = 1 C t e x p ( e t , j ) p(y_t|y_{t-1},…y_1,\mathbf{x})=\frac{exp(e_{t,y_t})}{\sum\limits_{j=1}^{C_t}exp(e_{t,j})}p (y t ​∣y t −1 ​,…y 1 ​,x )=j =1 ∑C t ​​e x p (e t ,j ​)e x p (e t ,y t ​​)​各列 e i e_i e i ​ softmax 的最大值所对应的词就是预测结果。

文章部分翻译

3 Model Architecture

极具竞争力的神经序列转录模型都有encoder-decoder结构[5,2,29]。这里,encoder将以symbol表示的 ( x 1 , … , x n ) (x_1,…,x_n)(x 1 ​,…,x n ​) 输入序列映射到连续表示 z = ( z 1 , … , z n ) \boldsymbol{\mathbf{z}}=(z_1,…,z_n)z =(z 1 ​,…,z n ​) 的序列。给定z \boldsymbol{\mathbf{z}}z,然后decoder一次生成symbol表示的输出序列 ( y 1 , … , y m ) (y_1,…,y_m)(y 1 ​,…,y m ​)的一个元素。在每一步中,模型都是自回归的[9],在生成下一步时,使用先前生成的symbol作为额外输入。

Transformer 遵循这一总体架构,encoder和decoder都使用堆叠的self-attention和逐点全连接层,分别如图1的左半部分和右半部分所示。

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

; 3.1 Encoder and Decoder Stacks

E n c o d e r \boldsymbol{\mathbf{Encoder}}E n c o d e r:encoder由N=6个相同层堆叠而成。每层有两个子层。第一个子层是multi-head self-attention结构,第二个子层是简单的、对应位置逐个相乘的全连接前馈网络。我们在两个子层的每个层周围使用residual connection[10],然后进行layer normalization[1]。也就是说,每个子层的输出是LayerNorm(x+Sublayer(x)),其中Sublayer(x)是由子层本身实现的函数。为了便于residual connection进行连接,模型中的所有子层以及embedding层都会生成尺寸为 d m o d e l = 512 d_{model}=512 d m o d e l ​=5 1 2 的输出。

D e c o d e r \boldsymbol{\mathbf{Decoder}}D e c o d e r:decoder也由N=6个相同层的堆栈组成。除了每个encoder层中的两个子层之外,decoder还插入第三个子层,该子层对encoder堆的输出执行multi-head attention。与encoder类似,我们在每个子层周围使用residual connection,然后进行layer normalization。我们还修改了decoder堆栈中的self-attention子层,以防止当前位置关注到未来位置的信息。这种masking,基于输出的embedding偏移一个位置的事实,确保位置 i i i 的预测只能依赖于位置小于 i i i 的已知输出。

3.2 Attention

attention函数可以描述为将query和一组key-value对映射到输出的一个映射,其中query、key、value和输出都是向量。输出由value的加权计算得到,其中分配给每个value的权重由query的匹配函数与相应key计算得到。

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

; 3.2.1 Scaled Dot-Product Attention

我们称我们这个独特的attention为”Scaled Dot-Product Attention”(图2)。输入包括维度 d k d_k d k ​ 的query和key以及维度 d v d_v d v ​ 的value。我们用所有key计算query的点积,每个除以 d k \sqrt{d_k}d k ​​,并应用softmax函数以获得value的权重。

在实践中,我们同时计算attention函数,基于一组query,将它们打包成矩阵Q Q Q。key和value也打包成矩阵K K K和V V V。我们将输出矩阵计算为:
A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ) V Attention(Q,K,V)=softmax(\frac{QK^T}{\sqrt{d_k}})V A t t e n t i o n (Q ,K ,V )=s o f t m a x (d k ​​Q K T ​)V
两种最常用的attention函数是加性attention[2]和点积(多重复制)attention。点积attention与我们的算法相同,只是比例因子d k \sqrt{d_k}d k ​​不同。加性attention使用带有单个隐藏层的前馈网络计算匹配函数。虽然两者在理论复杂性上相似,但由于可以使用高度优化的矩阵乘法代码来实现,因此在实践中,点积注意速度更快,空间效率更高。

而对于较小的d k d_k d k ​值,这两种机制的表现类似,对于较大的d k d_k d k ​值,加性attention优于点积attention[3]。我们怀疑,对于较大的d k d_k d k ​值,点积的增长幅度较大,从而将softmax函数推到梯度非常小的区域4 ^4 4。为了抵消这一影响,我们通过给点积乘上1 d k \frac{1}{\sqrt{d_k}}d k ​​1 ​。

4 ^4 4为了说明点积变大的原因,假设组成元素q q q和k k k的平均值为0,方差为1的独立随机变量。那么它们的点积q ⋅ k = ∑ i = 1 d k q i k i q\cdot k=\sum_{i=1}^{d_k} q_ik_i q ⋅k =∑i =1 d k ​​q i ​k i ​的均值为0,方差为d k d_k d k ​。

3.2.2 Multi-Head Attention

我们发现,不直接使用 d m o d e l d_{model}d m o d e l ​ 维的query、key和value输入到一个attention函数,而是使用不同的经过学习的线性投影矩阵 h h h 次将query、key和value分别线性投影到 d k 、 d k d_k、d_k d k ​、d k ​ 和 d v d_v d v ​ 维,会更有帮助的。在query、key和value的每个不同投影矩阵上,我们并行执行attention函数,生成 d v d_v d v ​ 维输出值。如图2所示,这些值被连接并再次投影,从而得到最终值。

multi-head attention允许模型共同关注来自不同位置的不同表征子空间的信息。平均操作会抑制这种关注能力,只使用一个attention head的话。
M u l t i H e a d ( Q , K , V ) = C o n c a t ( h e a d 1 , . . . , h e a d h ) W O MultiHead(Q, K, V ) = Concat(head_1, …, head_h)W^O M u l t i H e a d (Q ,K ,V )=C o n c a t (h e a d 1 ​,…,h e a d h ​)W O w h e r e h e a d i = A t t e n t i o n ( Q W i Q , K W i K , V W i V ) where\quad head_i = Attention(QW_i^Q, KW_i^K , VW_i^V)w h e r e h e a d i ​=A t t e n t i o n (Q W i Q ​,K W i K ​,V W i V ​)
其中投影都是参数矩阵 W i Q ∈ R d m o d e l × d k , W i K ∈ R d m o d e l × d k , W i V ∈ R d m o d e l × d v W_i^Q\in R^{d_{model}\times d_k},W_i^K\in R^{d_{model}\times d_k},W_i^V\in R^{d_{model}\times d_v}W i Q ​∈R d m o d e l ​×d k ​,W i K ​∈R d m o d e l ​×d k ​,W i V ​∈R d m o d e l ​×d v ​

在这项工作中,我们采用了h = 8 h=8 h =8个平行的attention层或attention head。对于每一个,我们使用d k = d v = d m o d e l / h = 64 d_k=d_v=d_{model}/h=64 d k ​=d v ​=d m o d e l ​/h =6 4。由于每个头部的维数减小,因此总的计算成本与全维single-head attention的计算成本相似。

3.2.3 Applications of Attention in our Model

Transformer以三种不同的方式使用multi-head attention:

•在”encoder-decoder attention”层中,query来自前一个decoder子层,key和value来自encoder的输出。这允许decoder中的每个位置都关注到输入序列的所有位置。这模仿了sequence-to-sequence模型中典型的encoder-decoder attention机制,如[31,2,8]。

•encoder包含self-attention层。在self-attention层中,所有query、key和value都来自同一个位置,在本例中,是encoder中前一层的输出。encoder中的每个位置都可以关注encoder前一层中的所有位置。

•类似地,decoder中的self-attention层允许decoder中的每个位置关注decoder中直到并包括该位置的所有位置。我们需要防止decoder中的信息向左流动,以保持自回归特性。在scaled dot-product attention中,我们通过mask softmax输入中,所有与非法连接对应的值(设置为 −∞ \infty ∞),来实现这一点 。参见图2。

3.3 Position-wise Feed-Forward Networks

除了attention的子层之外,还有encoder和decoder,他们的每一层都包含一个全连接的前馈网络,该网络分别相同地应用于每个位置。这包括两个线性变换,中间有一个ReLU激活。
F F N ( x ) = max ⁡ ( 0 , x W 1 + b 1 ) W 2 + b 2 FFN(x) = \max(0, xW_1 + b_1)W_2 + b_2 F F N (x )=max (0 ,x W 1 ​+b 1 ​)W 2 ​+b 2 ​
虽然线性变换在不同位置上是相同的,但它们在层与层之间使用不同的参数。另一种描述方法是将其描述为kernel大小为1的两个卷积。输入和输出的维数为 d m o d e l = 512 d_{model}=512 d m o d e l ​=5 1 2,内层的维数为 d f f = 2048 d_{ff}=2048 d f f ​=2 0 4 8。

3.4 Embeddings and Softmax

与其他序列转录模型类似,我们使用学习到的embedding将输入的token和输出的token转换为维度为d m o d e l d_{model}d m o d e l ​的向量。我们还使用常见的学习权重线性变换和softmax函数将decoder输出转换为预测下一个token的概率。在我们的模型中,我们在两个embedding层和预softmax线性变换之间共享相同的权重矩阵,类似于[24]。在embedding层中,我们将这些权重乘以d m o d e l \sqrt {d_{model}}d m o d e l ​​。

(注:文章[24]将模型的输入embedding和输出embedding tie在一起,即共享一个embedding空间,同一个词在输入embed时和输出embed时会embed成同一个embedding向量。在翻译模型中,如果2种语言的subword共享率非常高,甚至可以实现编码器的输入embedding、解码器的输入embedding和解码器的输出embedding 三者共享。详细见NLP论文:Weight tying 笔记

3.5 Positional Encoding

由于我们的模型不包含递归和卷积,为了使模型能够利用序列的顺序,我们必须注入一些关于token在序列中的相对或绝对位置的信息。为此,我们在encoder和decoder堆栈底部的输入embedding中添加”位置编码”。位置编码与embedding具有相同的维度d m o d e l d_{model}d m o d e l ​,因此可以将两者相加。有许多位置编码的选择,学习的和固定的[8]。

在这项工作中,我们使用不同频率的正弦和余弦函数:
P E ( p o s , 2 i ) = s i n ( p o s / 1000 0 2 i / d m o d e l ) PE_{(pos,2i)} = sin(pos/10000^{2i/d_{model}})P E (p o s ,2 i )​=s i n (p o s /1 0 0 0 0 2 i /d m o d e l ​)P E ( p o s , 2 i + 1 ) = c o s ( p o s / 1000 0 2 i / d m o d e l ) PE_{(pos,2i+1)} = cos(pos/10000^{2i/d_{model}})P E (p o s ,2 i +1 )​=c o s (p o s /1 0 0 0 0 2 i /d m o d e l ​)
其中p o s pos p o s是位置,i i i是维度。也就是说,位置编码的每个维度对应一个正弦曲线。波长形成从 2 π 2π2 π 到 10000 ⋅ 2 π 10000\cdot 2π1 0 0 0 0 ⋅2 π 的几何级数。我们之所以选择这个函数,是因为我们假设它可以让模型通过相对位置轻松学习如何关注信息,因为对于任何固定偏移量 k k k,P E p o s + k PE_{pos+k}P E p o s +k ​可以表示为P E p o s PE_{pos}P E p o s ​的线性函数。

我们还尝试使用习得的位置嵌入[8],发现这两个版本产生了几乎相同的结果(见表3第(E)行)。我们选择正弦版本,因为它可能允许模型推断出序列长度比训练期间遇到的序列长度更长。

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

; 4 Why Self-Attention

NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

相关视频

Transformer论文逐段精读【论文精读】
李宏毅-Transformer
Sequence-to-sequence Learning
【李宏毅】Transformer Seq2seq

相关的笔记

相关代码

pytorch

Vaswani等人(2017)以及优秀指南,”注释的 transformer “
MorvanZhou /NLP-Tutorials:代码中n代表,即包含batch size;step代表输入句子长度,即一句话包含多少个词;model_dim、dim、emb_dim代表word embedding的维度。

tensorflow

作者的代码

keras

pytorch API:

tensorflow API

Original: https://blog.csdn.net/sinat_39448069/article/details/121825365
Author: 电信保温杯
Title: NLP经典论文:Attention、Self-Attention、Multi-Head Attention、Transformer 笔记

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/531233/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球