【机器学习笔记】Week4
2022-03-13 20:59 作者:Magician-Artist | 我要投稿
本周主要讲解了神经网络
为什么要从线性回归转向神经网络?——可以更好地处理高维数据。神经网络可以拥有更好的表达能力,比如:对于线性不可分的问题(XOR,异或),可以通过神经网络解决。
前馈(feedforward):神经网络一端连接着一个观察值的特征值,另一端连接着对应的目标值(比如观察值的分类)。观察值的特征值在网络中向前传播,每经过一层,网络都会对特征值进行转换,目标是让最后的输出与目标值相同。“前馈”这个名字就源于此。
前向传播(forward propagatiion):一个观察值(更常见的是一组观察值的集合,即批次batch)被传给神经网络,它的输出值就会被拿来用损失函数与观察值的真实值进行比较。这个过程叫前向传播。
反向传播(backward propagation):前向传播后,算法“向后”在神经网络中传播,识别出每个参数对预测值和真实值之间的差异的影响程度,这个过程叫做反向传播。对于每一个参数,优化算法则考虑如何调整权重值来改善输出。
epoch:所有观察值都通过网络传递一次就称为一个epoch,通过epoch迭代更新参数的值。


附送电脑桌面壁纸一张~
