Deformable Detr 论文思想讲解(一听就会)

01:56
可变形卷积是什么

可变形卷积:感受野可变
03:07
可变形卷积:加了偏移量

04:00
deformable detr的研究背景

很多目标检测模型在多尺度检测都会用到FPN
06:55
deformable attention
因为只关注局部像素,时间复杂度降低,所以可以更容易在多尺度特征图上预测

detr没有用FPN的原因:transformer用q和k计算注意力机制的时间复杂度大(像素尺寸的平方),本身就慢,再用FPN更慢
08:06
FIG1讲解
09:53
什么是可变形注意力

q不是和全局每一个k计算,而是通过学习和部分位置的k进行计算
13:47
什么是多尺度可变形多头注意?
将上面的注意力用在多尺度特征图上

18:37
实验结果

21:27
