欢迎光临散文网 会员登陆 & 注册

Pytorch 图像处理中注意力机制的代码详解与应用(Bubbliiiing 深

2022-01-18 12:20 作者:如果我是泡橘子  | 我要投稿

注意力机制


注意力机制是cv深度学习里面常用到的一个小技巧,核心就是让网络去关注到他所需要去关注的一个地方


当利用卷积神经网络去处理图片的时候,我们会更希望卷积神经网络去注意它应该注意的地方,而不是每一个地方都需要去关注,不可能自己去手动调节网络需要注意的地方,所以就提出了注意力机制,希望让网络自己去自适应的注意需要的物体,注意力机制其实就是网络进行这个网络自适应注意的一个方式


一般来讲注意力机制可以分

  • 通道注意力机制
  • 空间注意力机制
  • 通道注意力机制、空间注意力机制二者的结合





空间注意力机制

  • 上图中的长方体表示特征层,一般来讲一个特征层有长、宽、高
  • 空间注意力机制事实上是去分辨所看到的画面哪一个区域是比较重要的
  • 其实特征层会存在非常多的特征,如上图中的圆圈所示(其实它只是一个点而已),空间注意力机制事实上就是去关注哪一些点是需要去注意的
  • 比如说现在想要去检测一只鸟,那么这个鸟的区域肯定是最重要的,而这时候如果使用空间注意力机制的话,网络就会自适应的去关注这个鸟所在的位置,如图所示
  • 因为注意力机制一般会以一种权重的方式进行体现,所以空间注意力机制就会让属于鸟的这个位置的权重变得更大一些(鸟的位置其实也会对应一些特征点,所以就让这些点的权重变得更大),那么网络在往后计算的时候就会更加关注这个鸟





通道注意力机制

  • 上图所示也是一个特征层,它有高、宽、通道数
  • 通道注意力机制其实就是去关注哪一个通道是更加重要的
  • 对于特征图来讲,它每个位置都会有一个特征点,每一个特征点都存在着若干个通道,每一个通道都是我们特征点所对应的特征浓缩,因为卷积其实是发现输入图像不同区域的一个特征,这些特征是一个高维的高语义信息的特征,更加具体的理解,就好像是点特征、线特征一样,通道注意力机制其实就是去关注到底哪一些特征是重要的
  • 比如说可能获得了一些明暗信息的特征,可能获得一些色域信息的特征,这些特征对于分辨物体来讲可能并不是很重要的,通道注意力机制其实就是去自适应的决定哪一部分的特征是最重要的,然后就会在通道的位置上去关注哪一个更高语义信息的特征,比如说点特征、线特征、明暗特征等
  • 一般来讲点特征、线特征主观感觉的话,其实可能会比明暗特征更重要一些,在分辨物体的时候,通道注意力机制就会去关注点和线的特征,把它们的权值设的高一些,比如说0.9,明暗的特征可能就设成0.1,当然实际获取到的特征不是这个形式,这里只是举个例子,这样的话就可以实现通道注意力机制了





其实空间注意力机制和通道注意力机制是网络自适应注意的一个方式,还有一种方式就是把这二者结合起来,画的话可能不太好画,就不画了,自己脑补(doge)





----end----

Pytorch 图像处理中注意力机制的代码详解与应用(Bubbliiiing 深的评论 (共 条)

分享到微博请遵守国家法律