在这个系列的第二篇文章《Transformer升级之路:2、博采众长的旋转式位置编码》中,笔者提出了旋转位置编码(RoPE)——通过绝对位置的形式实现相对位置编码的方案。一开始RoPE是针对一维序列如文本、音频等设计的(RoPE-1D),后来在《Transformer升级之路:4、二维位置的旋转式位置编码》中我们将它推广到了二维序列(RoPE-2D),这适用于图像的ViT。然而,不管是RoPE-1D还是RoPE-2D,它们的共同特点都是单一模态,即纯文本或者纯图像输入场景,那么对于多模态如图文混合输入场景,RoPE该做如何调整呢?

笔者搜了一下,发现鲜有工作讨论这个问题,主流的做法似乎都是直接展平所有输入,然后当作一维输入来应用RoPE-1D,因此连RoPE-2D都很少见。且不说这种做法会不会成为图像分辨率进一步提高时的效果瓶颈,它终究是显得不够优雅。所以,接下来我们试图探寻两者的一个自然结合。

旋转位置 #

RoPE名称中的“旋转”一词,来源于旋转矩阵Rn=(cosnθsinnθsinnθcosnθ),它满足
RmRn=Rnm


这样一来对于q,k(假设为列向量)的内积就有
(Rmq)(Rnk)=qRmRnk=qRnmk

最左边的式子中,Rmq,Rnk是独立进行的,不涉及到m,n的交互,所以它形式上是绝对位置,但最右端的等价形式只依赖于相对位置nm,所以跟Dot-Product的Attention结合之后,它实质表现为相对位置。这个特性也让RoPE具备平移不变性:因为(n+c)(m+c)=nm,所以在应用RoPE之前全体绝对位置都加上一个常数,那么Attention的结果理论上不会变化(实际上受限于计算精度,可能有微小误差)。

以上是q,kR2的形式,对于q,kRd(其中d是偶数),我们需要一个d×d的旋转矩阵,为此我们引入d/2个不同的θ,构造分块对角矩阵
R(d×d)n=(cosnθ0sinnθ00000sinnθ0cosnθ0000000cosnθ1sinnθ10000sinnθ1cosnθ1000000cosnθd/21sinnθd/210000sinnθd/21cosnθd/21)


从实现上看,就是将q,k两两分组,每组取不同的θ进行二维的旋转变换,这些是已有的RoPE内容,就不再详细展开了。原则上来说,我们只需要找到一个最低维的解,就可以通过分块对角的方式推广到一般维度,因此下面的分析都只考虑最小维度。

二维位置 #

当我们谈到“维度”这个概念时,可能会有多种含义,比如刚才我们说q,kRd,这就是说q,k都是d维向量,但本文所聚焦的RoPE-1D、RoPE-2D,它并不是指这个维度,而是指记录一个位置所需要的维度。

文本及其位置ID

文本及其位置ID

比如,我们要文本的某个token的位置,那么只需要一个标量n,记录它是第n个token。但对于图像来说,即便进行了patchify,它通常也会保留width和height两个方向维度,所以我们需要一对坐标(x,y)才能准确编码某个patch的位置:

图片及其位置坐标

图片及其位置坐标

上一节介绍Rn,它只编码了一个标量n,所以它是RoPE-1D,而为了更合理地处理图像输入,我们要推广到相应的RoPE-2D:
Rx,y=(cosxθsinxθ00sinxθcosxθ0000cosyθsinyθ00sinyθcosyθ)=(Rx00Ry)


很明显,这只是RxRy以分块对角的形式组合在一起,因此也很自然能将它推广到3D甚至更高维度。从实现上来理解就是更简单了,它就是将q,k都切分为两半(3D就是三等分、4D就是四等分,依此类推),每一半都是Rd/2的向量,然后一半做x的RoPE-1D,另一半做y的RoPE-1D,最后再拼起来。

需要指出的是,从对称性和简洁性考虑,上面构造的Rx,y中对x,y我们使用了相同的θ,但这原则上是非必须的,在适当情况下我们分别给x,y配置略有不同的θ

强行降维 #

现在我们看到,文本的位置是一个标量n,图片的位置则是一个向量(x,y),两者并不一致,因此在处理图文混合输入时就需要一些技巧,来调和两者之间的不一致性。

最直接的方案,文章开头已经说了,就是直接展平图片为一维向量序列,然后就当作普通文本来处理,文本怎么加位置编码它就怎么加位置编码。这种思路自然是非常通用的,不限于加RoPE,也可以加任何绝对位置编码,笔者目测已有的一些多模态模型,如Fuyu-8b、Deepseek-VL、Emu2等,都是这样做的,可能细节处理上会有所不同,比如遇到不同行的patch可以考虑加个表示[SEP]的special token来分隔:

文本和图片都展平为一维来处理

文本和图片都展平为一维来处理

这个方案也契合了当前主流的Decoder-Only架构,因为Decoder-Only意味着即便不加位置编码,它也不是置换不变的,因此必须人为指定我们认为最佳的输入顺序,而既然要指定输入顺序了,按照所指定的顺序使用一维的位置编码也是很自然的选择。此外,在纯文本时这种方案的模型跟普通纯文本LLM无异,所以这也允许我们将训练好的文本LLM来继续训练成一个多模态模型。

然而,从笔者的角度看,位置编码的概念本身不应该和Attention的用法绑定,它应该普适于Decoder、Encoder乃至任意的Attention Mask。另一方面,保持位置的二维性才能最大程度上保留我们关于相近位置的先验,比如我们认为位置(x+1,y)(x,y+1)都应该跟(x,y)具有相近的距离,但如果(先水平后垂直)展平的话,(x,y)变为xw+y,而(x+1,y)(x,y+1)分别变为了xw+y+wxw+y+1,前者与xw+y的距离就依赖于w而后者是固定的1。当然,我们还可以指定其他制定顺序,但不管怎么指定顺序,都无法完全兼容所有邻近位置的相近性,毕竟少了一个维度,可表达的相似性就少了很多。

统一升维 #

从向量空间的角度看,一维的标量可以看成一个特殊的二维向量,因此相比于展平为一维,如果我们反过来将所有输入的位置都统一到二维,原则上有更大的操作空间。

为此,我们可以考虑一种常见的排版方式:以图片为分隔符,对文本进行分段,连续的文本都视为一行,图片则视为多行文本,那么整个图文混合输入就相当于一篇多行长文,每个文本token或者图片patch,都有自己所属的行数x以及行内的顺序y,这就给所有的输入单元(token或者patch)都赋予了一个二维位置(x,y),于是可以统一用RoPE-2D(其他2D形式的位置编码理论上也可以)来编码位置,同时还保持了原本图片位置的二维性。

模拟排版统一构建二维位置坐标

模拟排版统一构建二维位置坐标

很明显,该方案的主要优点是非常直观,它直接跟实际的视觉排版相对应,便于理解和推广。但它也有一个非常明显的缺点,那就是对于纯文本输入,它无法退化为RoPE-1D,而是变成了x始终为1的RoPE-2D,这样从已训练好的文本LLM出发来训练多模态LLM的可行性就值得怀疑。此外,以图片作为分割点的话,当图片比较多时,可能会让文本被分割得过于“支离破碎”,具体表现包括每一段文本的长度波动太大、本该连续的文本被强行换行等,这些都可能成为限制效果的瓶颈。

合二为一 #

如果要无损保留图片patch的位置信息,那么统一到二维然后用RoPE-2D(或者其他2D形式的位置编码)看上去是必然的选择,所以上一节的方案已经是走在了正确的方向上,我们需要进一步思考的是如何能够让它对于纯文本输入能够退化为RoPE-1D,以兼容已有的文本LLM。

首先,我们在前面已经提到过,Rx,yRxRy的分块对角组合,所以Rn,n是两个Rn的分块对角组合,而RoPE-1D的R(d×d)n也是多个不同θRn的分块对角组合,由此可见,只要我们从R(d×d)n选取不同的θx,y,那么Rn,n就可以看成是RoPE-1D(即R(d×d)n)的一部分。这样看来,要想RoPE-2D能退化为RoPE-1D,那么文本的位置应该采取(n,n)的形式,而不是像上一节那样用其他方式指定一个行号。

然后,在图片内部,我们则使用常规的RoPE-2D,对于单张w×h个patch的图片来说,它的二维位置坐标展平后是
x111222hhhy12w12w12w


如果这张图片位于一个长度为L的句子后面,我们这个句子的最后一个token的位置编码就是(L,L),于是这张接在句子后面的图片的位置编码看上去应该是
xL+1L+1L+1L+hL+hL+hyL+1L+2L+wL+1L+2L+w

但这并不完美,因为句子的最后一个token的位置是(L,L),图片第一个patch的位置是(L+1,L+1),它们相差(1,1);假设这张图片后面再接一个句子,那么设该句子的第一个token的位置是(K,K),图片的最后一个patch的位置则是(L+h,L+w),当wh时,不管我们怎么设置K,都不可能让(K,K)(L+h,L+w)的差为(1,1),即图片关于左右的句子存在不对称性,这就显得不够优雅。

为了改进这一点,我们可以将图片的x,y分别乘以正数s,t
xsss2s2s2shshshsyt2twtt2twtt2twt


只要s,t0,那么这个缩放对位置信息是无损的,因此这样的操作是允许的。而引入scale之后,假设句子的最后一个token的位置依旧是(L,L),那么图片的位置同样是上述序列都加上L,此时“句子的最后一个token的位置”与“图片第一个patch的位置”之差就是(s,t),如果我们希望“图片后面的句子的第一个token的位置”与“图片最后一个patch的位置”之差也是(s,t),那么就应该有
(L+hsL+wt)+(st)=(KK)(h+1)s=(w+1)t

考虑到h,w的任意性,并且希望保证位置ID都是整数的话,那么最简单的一个解自然是s=w+1,t=h+1,新句子第一个token的位置将会是K=L+(w+1)(h+1)。一个具体的例子如下图所示:

支持退化为RoPE-1D的二维位置

支持退化为RoPE-1D的二维位置

延伸思考 #

左边句子最后一个token的位置是L,右边句子第一个token的位置是K=L+(w+1)(h+1),如果中间部分也是一个句子的话,那么可以推出该句子有(w+1)(h+1)1个token,这也等价于说如果两个句子之间夹着一个w×h的图片,那么对这两个句子的相对位置来说等价于隔着一个(w+1)(h+1)1个token的句子。这个数字看起来有点不自然,因为看上去wh才是完美答案,但可惜这是保证所有位置ID都是整数的最简单解。如果允许非整数的位置ID,那么可以约定w×h的图片等价于wh个token,反过来推出
s=wh+1h+1,t=wh+1w+1

可能有读者要问:如果是两张不同大小的图片相邻,是不是就没有这样对称的方案了?这其实也不难,只要每张图片的前后,我们都加入special token来标记,如[IMG]、[/IMG],并且special token当作普通文本token来编码位置,这样就直接避免了两张图片直接相邻的情况(因为按照约定,同一张图片的patch之间必然夹在[IMG]和[/IMG],这两个token当作文本来处理,所以就等价于说每一张图片必然夹在两个文本之间)。此外,上述介绍中没有提及[SEP],如果有需要自行引入即可,事实上只有用patch by patch的自回归方式做图片生成时,才有必要引入[SEP],如果图片单纯是作为输入,或者图片生成用扩散模型来做,那么[SEP]则是多余的。

至此,我们关于将RoPE推广到图文混合输入的推导已经完成,如果需要一个名字,可以将最后的方案称之为“RoPE-Tie(RoPE for Text-image)”。不得不说的是,最后的RoPE-Tie并不算太漂亮,以至于给人一种“雕花”的感觉。从效果上来看,相比直接展平为一维用RoPE-1D,换用RoPE-Tie之后也不见得会有什么提升,它更多是笔者的强迫症的一个产物。所以,对于已经scale到了一定规模的多模态模型,就没有必要做出什么改动了,但如果还没有起步或者刚刚起步,那么不妨尝试一下RoPE-Tie。

文章小结 #

本文讨论了如何将RoPE-1D和RoPE-2D结合起来,来更好地处理图文混合的输入格式,主要思想是通过RoPE-2D支持图片的二维位置指标,并且通过适当的约束,使得在纯文本情况下能退化为常规的RoPE-1D。

转载到请包括本文地址:https://kexue.fm/archives/10040

更详细的转载事宜请参考:《科学空间FAQ》

如果您还有什么疑惑或建议,欢迎在下方评论区继续讨论。

如果您觉得本文还不错,欢迎分享/打赏本文。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!

如果您需要引用本文,请参考:

苏剑林. (Mar. 29, 2024). 《Transformer升级之路:17、多模态位置编码的简单思考 》[Blog post]. Retrieved from https://kexue.fm/archives/10040

@online{kexuefm-10040,
        title={Transformer升级之路:17、多模态位置编码的简单思考},
        author={苏剑林},
        year={2024},
        month={Mar},
        url={\url{https://kexue.fm/archives/10040}},
}