欢迎光临散文网 会员登陆 & 注册

70+篇注意力机制高分论文及Python核心代码分享

2023-09-25 17:59 作者:深度之眼官方账号  | 我要投稿

不知道CV方向的同学在读论文的时候有没有发现这样一个问题:论文的核心思想很简单,但当你找这篇论文的核心代码时发现,作者提供的源码模块会嵌入到分类、检测、分割等任务框架中,这时候如果你对某一特定框架不熟悉,尽管核心代码只有十几行,依然会发现很难找出。

今天学姐就帮大家解决一部分这个问题,还记得上次分享的attention论文合集吗?没印象的同学点这里直达。

学姐这次总结了这30篇attention论文中的核心代码分享给大家,还有一部分其他系列的论文,比如ReP、卷积级数等,核心代码与原文都整理了。

由于篇幅和时间原因,暂时只分享了一部分,需要全部论文以及完整核心代码的同学看这里👇👇👇

扫码添加小享,回复“核心代码

免费获取全部论文+核心代码合集

Attention论文

1、Axial Attention in Multidimensional Transformers

核心代码

2、CCNet: Criss-Cross Attention for Semantic Segmentation

核心代码

3、Aggregating Global Features into Local Vision Transformer

核心代码

4、CROSSFORMER: A VERSATILE VISION TRANSFORMER HINGING ON CROSS-SCALE ATTENTION

核心代码

5、Vision Transformer with Deformable Attention

核心代码

6、Separable Self-attention for Mobile Vision Transformers

核心代码

7、On the Integration of Self-Attention and Convolution

核心代码

8、Non-deep Networks

核心代码

9、UFO-ViT: High Performance Linear Vision Transformer without Softmax

核心代码

10、Coordinate Attention for Efficient Mobile Network Design

核心代码

扫码添加小享,回复“核心代码

免费获取全部论文+核心代码合集

ReP论文

1、RepVGG: Making VGG-style ConvNets Great Again

核心代码

2、ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks

核心代码

卷积级数论文

1、CondConv: Conditionally Parameterized Convolutions for Efficient Inference

核心代码

2、Dynamic Convolution: Attention over Convolution Kernels

核心代码

3、Involution: Inverting the Inherence of Convolution for Visual Recognition

核心代码

扫码添加小享,回复“核心代码

免费获取全部论文+核心代码合集


70+篇注意力机制高分论文及Python核心代码分享的评论 (共 条)

分享到微博请遵守国家法律