70+篇注意力机制高分论文及Python核心代码分享
不知道CV方向的同学在读论文的时候有没有发现这样一个问题:论文的核心思想很简单,但当你找这篇论文的核心代码时发现,作者提供的源码模块会嵌入到分类、检测、分割等任务框架中,这时候如果你对某一特定框架不熟悉,尽管核心代码只有十几行,依然会发现很难找出。
今天学姐就帮大家解决一部分这个问题,还记得上次分享的attention论文合集吗?没印象的同学点这里直达。
学姐这次总结了这30篇attention论文中的核心代码分享给大家,还有一部分其他系列的论文,比如ReP、卷积级数等,核心代码与原文都整理了。
由于篇幅和时间原因,暂时只分享了一部分,需要全部论文以及完整核心代码的同学看这里👇👇👇
扫码添加小享,回复“核心代码”
免费获取全部论文+核心代码合集

Attention论文
1、Axial Attention in Multidimensional Transformers
核心代码
2、CCNet: Criss-Cross Attention for Semantic Segmentation
核心代码
3、Aggregating Global Features into Local Vision Transformer
核心代码
4、CROSSFORMER: A VERSATILE VISION TRANSFORMER HINGING ON CROSS-SCALE ATTENTION
核心代码
5、Vision Transformer with Deformable Attention
核心代码
6、Separable Self-attention for Mobile Vision Transformers
核心代码
7、On the Integration of Self-Attention and Convolution
核心代码
8、Non-deep Networks
核心代码
9、UFO-ViT: High Performance Linear Vision Transformer without Softmax
核心代码
10、Coordinate Attention for Efficient Mobile Network Design
核心代码
扫码添加小享,回复“核心代码”
免费获取全部论文+核心代码合集

ReP论文
1、RepVGG: Making VGG-style ConvNets Great Again
核心代码
2、ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks
核心代码
卷积级数论文
1、CondConv: Conditionally Parameterized Convolutions for Efficient Inference
核心代码
2、Dynamic Convolution: Attention over Convolution Kernels
核心代码
3、Involution: Inverting the Inherence of Convolution for Visual Recognition
核心代码
扫码添加小享,回复“核心代码”
免费获取全部论文+核心代码合集
