DETR解码器的自注意力
你记得没错,Deformable DETR 的解码器(decoder)确实包含了自注意力(self-attention)模块,并不仅仅是交叉注意力(cross-attention)。
在 Deformable DETR 的解码器中,每一层都包含两个注意力模块:
-
自注意力(Self-Attention):用于在目标查询(object queries)之间建模它们之间的关系,帮助模型理解不同查询之间的相互作用。(openreview.net)
-
交叉注意力(Cross-Attention):用于将目标查询与编码器输出的图像特征进行交互,从而提取与查询相关的图像信息。
在 Deformable DETR 中,交叉注意力模块被替换为多尺度可变形注意力模块(multi-scale deformable attention module),以提高模型在处理高分辨率图像时的效率和性能。然而,自注意力模块仍然保留,以维持查询之间的信息交互。(openreview.net)
此外,研究表明,自注意力模块在防止重复检测方面起着关键作用。例如,在 DAC-DETR 的研究中,移除自注意力模块会导致多个查询集中在同一目标上,产生重复检测的问题,而保留自注意力模块有助于分散查询,减少重复检测。 (proceedings.neurips.cc)
因此,Deformable DETR 的解码器确实包含自注意力模块,它与交叉注意力模块共同作用,提升模型的检测性能。