欢迎光临散文网 会员登陆 & 注册

[吃瓜笔记]第5章

2023-08-02 22:39 作者:彤蛹_Amy  | 我要投稿

第5章 神经网络

在自然语言处理(NLP)、计算机视觉(CV)领域,神经网络(NN)基本已经一统天下了。最新的强大网络架构是Transformer。

5.1 神经元模型

M-P神经元是模拟生物神经网络中的神经元而成的,也和多个神经元有连接。其基本形式如下图所示。M-P神经元接受的值是乘上权重的值。所有神经元的输入之和再加上一个阈值就是激活函数的自变量,激活函数的因变量就是M-P神经元的输出。

M-P神经元模型(自西瓜书)

5.2 感知机与多层网络

感知机由两层神经元组成,即没有隐藏层。

如果在输出层加上一个属性值恒为1的结点x_%7Bn%2B1%7D%20,并使阈值%5Ctheta%20等于结点x_%7Bn%2B1%7D%20的权重值%5Comega%20_%7Bn%2B1%7D,则可以将权重和阈值的学习统一为权重的学习。

相比于感知机,多层前馈神经网络是更常见的NN。如下图所示,多层前馈神经网络是全连接NN。它和感知机的不同在于有隐藏层,也就是在输入层和输出层之间还有其他的神经网络,上连隐层或输出层,下连隐层或输入层。

多层前馈神经网络

NN的学习过程,就是调整权重的过程。也就是说,NN学到的东西,就是这些权重的取值。

5.3 误差逆传播算法

也称反向传播算法(BP)。

一般NN的权重是需要根据训练数据不断调整的,BP是一种常见的训练算法。在数学上是易于理解的。真实结果和预测结果的误差是权重的偏差导致的,那么我们可以根据误差对权重的导数,来指导我们权重的变化方向(加大或减小)。误差对权重的求导需要用到链式法则。

尽管NN现在的效果已经非常棒了,但是还是有很多没有解决的问题,相比于线性回归等模型还是属于黑箱。

5.5中提到的大部分NN都已经不常见了。

5.4-5.6略。

[吃瓜笔记]第5章的评论 (共 条)

分享到微博请遵守国家法律