欢迎光临散文网 会员登陆 & 注册

人工神经网络(1~4)

2023-03-19 20:24 作者:狂妄书生_Brainlv  | 我要投稿

1. 神经元的数学模型

人工神经网络(Artificial Neural Networks)简称:(Neural Networks)

1943年,沃伦·麦卡洛克和沃尔特·皮茨基于数学和一种称为阈值逻辑的算法创造了一种神经网络的计算模型,称为MP模型。结构如下图:

MP模型

即对输入信号的加权求和再加上偏置,在经过非线性的激活函数得到输出y。

可以得到输出y的数学表达式:

y%20%3D%20%5Cvarphi%20(%5Csum_%7Bi%3D1%7D%5Emw_ix_i%2Bb%20)%20%3D%20%5Cvarphi%20(W%5ETX%2Bb)

2. 感知其算法

人工神经网络更进一步被美国神经学家弗兰克·罗森布拉特所发展。他提出了可以模拟人类感知能力的机器,并称之为“感知机”。也就是由一些输入输出的对,通过机器学习的方法自动获得权重w和偏置b。

1957年,在Cornell航空实验室中,他成功在IBM 704机上完成了感知机的仿真。两年后,他又成功实现了能够识别一些英文字母、基于感知机的神经计算机——Mark1,并于1960年6月23日,展示与众。

感知器算法如下:

感知器算法

推导如下:


推导2

Novikoff证明如果训练集是线性分隔的,那么感知器算法可以在有限次迭代后收敛。

补充:

欠拟合(underfit)

过拟合(overfit)

3. 第一次寒冬

感知器算法只能够解决线性可分数据集的分类,但是日常生活中问题大部分都是非线性可分的。1969年,马文·闵斯基和西摩尔·派普特在《Perceptrons》书中,仔细分析了以感知机为代表的单层神经网络系统的功能及局限,证明感知机不能解决简单的异或(XOR)等线性不可分问题。


4. 多层神经网络

以简单的2层神经网络为例:

即输出y为:

y%20%3D%20w_1%5Cvarphi%20(w_%7B11%7Dx_1%2Bw_%7B12%7Dx_2%2Bb_1)%20%2B%20w_2%5Cvarphi%20(w_%7B21%7Dx_2%2Bw_%7B22%7Dx_2%2Bb_2)

待求参数为w和b,两层中的%5Cvarphi%20函数是非线性函数的。如果%5Cvarphi%20函数是线性函数,则可对上述式子y化简得到:y%20%3D%20(w_1w_%7B11%7D%2Bw_2w_%7B21%7D)x_1%2B(w_1w_%7B12%7D%2Bw_2w_%7B22%7D)x_2%2B(w_1b_1%2Bw_2b_2%2Bb_3),可以用一个神经元代替。

层与层之间不加非线性函数,多层神经网络将会退化到一个神经元的感知器模型。

3层神经网络可以模拟任何非线性决策面。

人工神经网络(1~4)的评论 (共 条)

分享到微博请遵守国家法律