欢迎光临散文网 会员登陆 & 注册

过来看!27个深度学习中的神经网络工作原理及其应用

2021-07-09 19:06 作者:深度之眼官方账号  | 我要投稿


27个深度学习中的神经网络,这些神经网络拓扑结构应用于不同的场合,达到不同的目的,今天主要介绍每个神经网络的应用及其工作原理。


0感知器(P)


感知器模型也称为单层神经网络,这个神经网络只包含两层:


  • 输入层

  • 输出层


在这种类型的神经网络中,没有隐藏层。它接受一个输入并计算每个节点的加权输入。之后,它使用激活函数(主要是sigmoid函数)进行分类。



应用:

  • 分类

  • 编码数据库(多层感知器)

  • 监控访问数据(多层感知器)


0前馈神经网络(FF)



前馈神经网络是一种人工神经网络,其中节点不会形成循环。在这个神经网络中,所有的感知器都是分层排列,输入层接收输入,输出层产生输出。


隐藏层与外部世界没有联系;这就是为什么它们被称为隐藏层。在前馈神经网络中,一层中的每个感知器都与下一层中的每个节点相连,因此,所有节点都是全连接的。另外需要注意的是,同一层中的节点之间没有可见或不可见的连接。


前馈网络中没有回环,因此,为了最小化预测中的误差,通常使用反向传播算法来更新权重值。



应用:

  • 数据压缩

  • 模式识别

  • 计算机视觉

  • 声纳目标识别

  • 语音识别

  • 手写字符识别


0径向基函数网络(RBN)



径向基函数网络通常用于函数逼近问题,它们具有更快的学习速度和通用逼近性,可区别于其他神经网络。


径向基网络和前馈网络之间的主要区别在于RBN使用径向基函数作为激活函数。逻辑函数(sigmoid函数)给出0到1之间的输出,以确定答案是肯定的还是否定的。


但是请注意,如果有连续值,则不能使用RBN。


RBIs决定生成的输出与目标输出的距离,这些在连续值的情况下非常有用。总之,RBIs表现是使用不同激活函数的FF网络。



应用:

  • 函数逼近

  • 时间序列预测

  • 分类

  • 系统控制


0深度前馈 (DFF)



深度前馈网络是使用多个隐藏层的前馈网络,仅使用一个隐藏层的主要问题是过度拟合,通过添加更多隐藏层,可以(并非在所有情况下)减少过度拟合并改进泛化能力。



应用

  • 数据压缩

  • 模式识别

  • 计算机视觉

  • 心电图噪声过滤

  • 财务预测


0循环神经网络(RNN)



循环神经网络(RNN)是前馈(FF)网络的变体,在这种类型中,隐藏层中的每个神经元都会接收具有特定时间延迟的输入。在需要访问当前迭代中的先前信息的时候使用这种类型的神经网络。


例如,当我们试图预测一个句子中的下一个单词时,我们需要先知道之前使用过的单词,RNN 可以处理输入并跨时间共享任何长度和权重,模型大小不会随着输入的大小而增加,并且该模型中的计算考虑了历史信息。


然而,这个神经网络的问题是计算速度慢,还有,它不能考虑当前状态的任何未来输入,因为它无法记住很久以前的信息。


应用:


  • 机器翻译

  • 机器人控制

  • 时间序列预测

  • 语音识别

  • 语音合成

  • 时间序列异常检测

  • 节奏学习

  • 音乐创作


0长/短期记忆网络(LSTM)



LSTM网络引入了一个记忆单元,可以处理具有内存缺口的数据。上面,我们可以注意到我们要考虑RNNs中的时间延迟,在使用RNN时有大量相关数据失败时,还想从中找出相关数据,那么LSTMs是首要操作。与LSTM相比,RNN无法记住很久以前的数据。



应用:

  • 语音识别

  • 写作识别


0门控循环单元(GRU)



门控循环单元是LSTM的一种变体,二者都具有相似的设计,大多时候产生同样好的结果。GRU只有三个门,它们不维护内部小组状态。


A.更新门:确定将多少过去的知识传递给未来。


b.重置门:确定要忘记多少过去的知识。


C.当前记忆门:重置命运的子部分。



应用:

  • 和弦音乐建模

  • 语音信号建模

  • 自然语言处理


0自动编码器(AE)



自编码器神经网络是一种无监督的机器学习算法。在自动编码器中,隐藏单元的数量小于输入单元的数量;自编码器中输入单元的数量等于输出单元的数量。


在AE网络上,我们训练它显示与fed输入一样接近的输出,迫使AEs找到共同的模式并概括数据。对于较小的输入表示,可使用自动编码器。我们可以从压缩数据重建原始数据,该算法相对简单,因为AE要求输出与输入相同。


  • 编码器:以较低维度转换输入数据。

  • 解码器:重建压缩数据。



应用:

  • 分类

  • 聚类

  • 特征压缩


0变分自编码器(VAE)



变分自编码器(VAE)使用概率方法来描述观察结果,它显示了特征集中每个属性的概率分布。



应用:


  • 在句子之间插入

  • 自动图像生成


10 去噪自编码器(DAE)


在这个自动编码器中,网络不能简单地将输入复制到输出,因为输入还包含随机噪声。在 DAE上,我们创作它是为了减少噪音并生成有意义的数据。这种情况下,算法会强制隐藏层学习更强大的特征,使输出是噪声输入的更精细版本。



应用:

  • 特征提取

  • 降维


11 稀疏自编码器(SAE)



在稀疏自编码器网络上,通过惩罚隐藏层的激活来构造损失函数,这样当将单个样本输入网络时,只有少数节点被激活。


这种方法背后的原理是:


例如,如果一个人声称自己是A、B、C和D领域的专家,那么这个人可能更像是这些领域的全能人才。但是,如果此人仅声称致力于主题D,则会期望从此人对D主题的知识中获得见解。



应用:


  • 特征提取

  • 手写数字识别


12 马尔可夫链(MC)



马尔可夫链是一个数学系统,它根据一些概率规则,经历从一种状态到另一种状态的转换。转换到任何特定状态的概率仅取决于当前状态和经过的时间。


例如,一些可能的状态集可以是:


  • 信件

  • 数字

  • 天气状况

  • 棒球比分

  • 股票表现



应用:


  • 语音识别

  • 信息和通信系统

  • 排队论

  • 统计数据


13 HOPFIELD网络(HN)



在Hopfield神经网络中,每个神经元都与其他神经元直接相连。在这个网络中,一个神经元要么是开要么是关。神经元的状态可以通过接收来自其他神经元的输入而改变。


我们通常使用Hopfield网络(HN)来存储模式和记忆。当在一组模式上训练一个神经网络时,即使模式有点失真或不完整,它也能识别出来。当向它提供不完整的输入时,它可以识别出完整的模式,从而返回最佳猜测。



应用:

  • 优化问题

  • 图像检测和识别

  • 医学图像识别

  • 增强X射线图像


14 玻尔兹曼机网络(BM)



Boltzmann机网络涉及从原始数据集学习概率分布,并使用它来推断未知数据。


在BMs中,有输入节点和隐藏节点,在所有的隐藏节点改变状态时,输入节点就会转变为输出节点。


例如:


假设我们在核电站工作,安全必须是第一要务。我们的工作是确保动力装置中的所有组件都可以安全使用,每个组件都有相关的状态,为简单起见使用布尔值,1 表示可用,0 表示不可用。但是,也会有一些组件我们无法定期测量状态。此外,如果隐藏组件停止运行,我们没有数据告诉我们发电厂何时会爆炸。


因此,在这种情况下,我们构建了一个模型,该模型会在组件更改其状态时进行通知。因此,当它发生时,会接到通知检查该组件并确保动力装置的安全。



应用:

  • 降维

  • 分类

  • 回归

  • 协同过滤

  • 特征学习


15 受限玻尔兹曼机(RBM)



RBM是BM的变体。在这个模型中,输入层和隐藏层的神经元之间存在对称连接,但是他们每一层内部没有内部连接。Boltzmann机在隐藏层有内部连接。BM中的这些限制允许对模型进行有效的训练。



应用:

  • 过滤

  • 特征学习

  • 分类

  • 风险检测

  • 商业和经济分析


16 深度信念网络(DBN)



深度信念网络包含许多隐藏层,可以使用无监督算法调用DBNs,因为它第一次学习时没有任何监督。DBN中的层充当特征检测器,在无监督训练之后,再用监督方法训练模型来执行分类。


我们可以将DBN表示为受限玻尔兹曼机(RBM)和自动编码器 (AE)的组合,最后dbn使用概率方法来处理结果。



应用:

  • 检索文件/图像

  • 非线性降维


17 深度卷积网络(DCN)



卷积神经网络是主要用于图像分类、图像聚类和对象识别的神经网络。DNN支持无监督构建分层图像表示。DNN用于为其添加更复杂的特征,以便它能够以更高的精度执行任务。



应用:

  • 识别面孔、路标、肿瘤

  • 图像识别

  • 视频分析

  • 自然语言处理(NLP)

  • 异常检测

  • 药物发现

  • 跳棋游戏

  • 时间序列预测


18 反卷积神经网络 (DN)



反卷积网络是一种反向工作的卷积神经网络(CNN)。尽管DN在工作性质上类似于CNN,但它在AI中的应用却大不相同。


反卷积网络有助于在以前认为有用的网络中找到丢失的特征或信号。DN可能会因为与其他信号卷积而丢失信号。反卷积网络可以获取一个向量并制作出一张图片。



应用:

  • 图像超分辨率

  • 图像的表面深度估计

  • 光流估计


19 深度卷积逆图形网络(DC-IGN)



深度卷积逆图形网络(DC-IGN)旨在将图形表示与图像相关联。它使用诸如照明、对象位置、纹理和图像设计的其他方面的元素来进行非常复杂的图像处理。


它使用不同层来处理输入和输出。深度卷积逆图形网络使用初始层通过各种卷积进行编码,利用最大池化,然后使用后续层进行解码。



应用:

  • 人脸的处理


20 生成对抗网络(GAN)


给定训练数据,GANs学会生成与训练具有相同统计数据的新数据。


例如,如果我们在照片上训练我们的GAN模型,那么经过训练的模型将能够生成人眼看起来真实的新照片。GAN的目标是区分真实结果和合成结果,以便生成更真实的结果。



应用:

  • 生成新的人体姿势

  • 照片到表情符号

  • 面部老化

  • 超分辨率

  • 服装翻译

  • 视频预测


21 液体状态机(LSM)


液态状态机 (LSM)是一种特殊的神经网络结构,LSM由大量神经元组成。在这里,每个节点接收来自外部源和其他节点的输入,这些输入可能随时间而变化。


请注意,LSM上的节点相互随机连接。在LSMs中,激活函数被阈值水平取代。只有当LSM达到阈值水平时,特定神经元才会发出输出。



应用:

  • 语音识别

  • 计算机视觉


22 极限学习机(ELM)


对于更大规模的数据集传统系统的主要缺点是:


基于梯度算法的学习速度慢。

迭代地调整所有参数。


ELM随机选择隐藏节点,然后分析确定输出权重。因此,这些算法比一般的神经网络算法工作得更快。此外,在极限学习机网络上,随机分配的权重通常不会更新,ELMs只需一步即可学习输出权重。



应用:

  • 分类

  • 回归

  • 聚类

  • 稀疏近似

  • 特征学习


23 回声状态网络(ESN)


回声状态网络(ESN)是循环神经网络的一个子类型,每个输入节点接收一个非线性信号。在ESN中,隐藏节点是稀疏连接的,隐藏节点的连通性和权重是随机分配的。在ESN上,最终输出权重是可训练的并且可以更新。



应用:

  • 时间序列预测

  • 数据挖掘


24 深度残差网络(DRN)


具有多层的深度神经网络可能难以训练,并且在训练阶段需要花费大量时间,也可能导致结果的退化。深度残差网络(DRN)可以防止结果退化,即使它们有很多层。有了DRNs,它的输入的一些部分会传递到下一层。因此,这些网络可能相当深(可能包含大约300层)。



应用:

  • 图像分类

  • 对象检测

  • 语义分割

  • 语音识别

  • 语言识别


25 Kohonen网络(KN)


Kohonen网络是一种无监督算法。Kohonen Network也称为自组织图,当数据分散在多个维度上,而我们又只希望它在一维或二维中时非常有用,可以看作是一种降维的方法。我们使用Kohonen网络来可视化高维数据,它使用竞争学习而不是纠错学习。


各种拓扑:


  • 矩形网格拓扑

  • 六边形网格拓扑



应用:

  • 降维

  • 水质评估和预测

  • 沿海水资源管理


26 支持向量机(SVM)


支持向量机神经网络是支持向量机和神经网络的混合算法。对于一组新的例子,它总是尝试将它们分为两类是或否(1或0)。SVM通常用于二元分类,这些通常不被视为神经网络。



应用:

  • 人脸检测

  • 文本分类

  • 分类

  • 生物信息学

  • 手写识别


27 神经图灵机(NTM)


  • 神经网络控制器

  • 记忆库


在这个神经网络中,控制器通过输入和输出向量与外部世界交互。还通过与存储器矩阵交互来执行选择性读取和写入R/W操作。


据说图灵机在计算上等同于现代计算机。因此,NTMs通过与外部存储器交互来扩展标准神经网络的功能。



应用:

  • 机器人

  • 构建一个人造人脑



参考文档:

https://pub.towardsai.net/main-types-of-neural-networks-and-its-applications-tutorial-734480d7ec8e


码字不易给学姐一个鼓励的赞吧!



过来看!27个深度学习中的神经网络工作原理及其应用的评论 (共 条)

分享到微博请遵守国家法律