人工智能AI面试题-6.1 如何通俗理解深度学习中的注意力力机制
6.1 如何通俗理解深度学习中的注意力力机制 最近两年,注意力模型(🧐Attention Model)被广泛使用在🧠自然语言处理、📷图像识别及语音识别等各种不同类型的深度学习任务中,是深度学习技术中最值得关注与深入了解的核心技术之一。本文以机器翻译为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽象出其本质思想,并介绍了注意力模型在图像及语音等领域的典型应用场景。 🧐注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是🧠自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。 🧠人类的视觉注意力 从注意力模型的命名方式看,很明显其借鉴了🧠人类的注意力机制,因此,我们首先简单介绍🧠人类视觉的选择性注意力机制。 📸图1 🧠人类的视觉注意力 视觉注意力机制是🧠人类视觉所特有的🧠大脑信号处理机制。🧠人类视觉通过快速扫描全局图像,获得需要重点关注的🎯目标区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。这是🧠人类利用有限的注意力资源从📷大量信息中快速筛选出高价值信息的🚀🔑手段,是🧠人类在长期进化中形成的一种🌟生存机制,🧠人类视觉注意力机制极大地提高了视觉信息处理的效率与准确性。 📸图1形象化展示了🧠人类在看到一副图像时是如何🚀高效分配有限的注意力资源的,其中红色区域表明🧠视觉系统更关注的目标,很明显对于图1所示的场景,🧠人们会把注意力更多投入到👤人的脸部,📖文字的标题以及📄文章首句等位置。 深度学习中的注意力机制从本质上讲和🧠人类的选择性视觉注意力机制类似,核心目标也是从众多信息中选择出对当前任务目标更关键的信息。 🔄Encoder-Decoder框架 要了解深度学习中的注意力模型,就不得不先谈Encoder-Decoder框架,因为目前大多数注意力模型附着在Encoder-Decoder框架下,当然,其实注意力模型可以看作一种通用的思想,本身并不依赖于特定框架,这点需要注意。 Encoder-Decoder框架可以看作是🔄一种深度学习领域的研究模式,应用场景异常广泛。📸图2是📖文本处理领域里常用的Encoder-Decoder框架最抽象的一种表现。