欢迎光临散文网 会员登陆 & 注册

4.从注意力角度看BiSeNet3篇

2023-03-30 13:18 作者:TheEnd__________  | 我要投稿

2023年3月29日08:36:32

BiSeNet-2018

  • 一个双流 编码器和一个融合器,每个流都包括一个注意力机制,

  • 双流即一个粗略的、低分辨率的分支和一个精细的、高分辨率的分支,

  • 两个分支,高低分辨率,SP(Spatial Path)小尺寸物体,CP(Context Path)大尺寸物体,

  • 在保持高分辨率的同时大大减少计算量,从而实现实时,

  • 编码器-解码器解构,Encoder-Decoder框架,

  • 全新注意力机制,即注意力金字塔池化,获取不同的上下文信息,

  • 将不同分辨率的特征图进行聚合,同时利用自注意力机制和跨特征图的注意力机制来提高特征图的表达能力,

RDFNet-2020

  • 循环细化 模块,增加模型的感受野,

  • 局部/全局 注意力机制,关注不同尺度和不同区域的信息,解决遮挡和复杂背景等,

  • 基于残差深度网络,“残差密度块”增强特征表达,相对密集的特征提取,反卷积操作,

  • 空间注意力机制,自适应注意力机制于残差密度块中的多个分支,获取上下文信息,

  • 更好地处理不同尺度的对象,

  • 大尺度和复杂背景,

  • 创新:局部跨度和全局跨度的残差密集块,基于特征上下文和空间解构的可逆采样方法,

  • RDB和可逆下采样,

DFANet-2021

  • 深度特征注意力,深度分离卷积减少参数量,

  • 包括一个基于特征注意力 的编码器和一个解码器,

  • 特征注意力机制嵌入到编码器的不同层中,更好关注感兴趣的特征,

  • 创新:多尺度深度分离卷积和分组注意力机制处理尺度变化和多样性,

是一种基于深度可分离卷积网络的语义分割模型,它使用了一种称为“多级上下文聚合”的方法来捕获不同尺度的上下文信息。在这个方法中,DFANet使用了两个注意力模块,分别是“通道注意力模块”和“空间注意力模块”。通道注意力模块可以自适应地学习通道之间的相关性,而空间注意力模块可以自适应地学习空间区域之间的相关信息。


4.从注意力角度看BiSeNet3篇的评论 (共 条)

分享到微博请遵守国家法律