欢迎光临散文网 会员登陆 & 注册

视觉注意力机制综述

2023-02-17 14:09 作者:卡哇伊Go_  | 我要投稿

Target of this course


01:30




01:42




01:59


QKV (Question-Knowledge-Value)

QKV 是一种注意力模型,它将输入文本分解为三个部分:

  1. 问题(Question):提出问题,以便更好地理解文本的意图。
  2. 知识(Knowledge):提取文本中的知识,以便更好地理解文本的内容。
  3. 价值(Value):提取文本中的价值,以便更好地理解文本的意义。

QKV 模型可以帮助 AI 系统更好地理解文本,从而更好地完成任务


What is attention

Common attentions

self-attention:

STN:


08:47


Deformable convolution:


10:23


CBAM 空间注意力


12:10


Attention的分类方式


15:02


Applications

transformer

视觉骨干网络


17:43



局部感受域

长期相关性

空间适配性

通道适配性

LKC分成了三个部分:

DW、DW-D、1x1.

local、large range、channel

Self-surpervised Learning


25:01



Attention 自适应 tranfor learning


Potential directions


27:35












视觉注意力机制综述的评论 (共 条)

分享到微博请遵守国家法律