欢迎光临散文网 会员登陆 & 注册

【机器学习笔记】Week4

2022-03-13 20:59 作者:Magician-Artist  | 我要投稿

本周主要讲解了神经网络

  • 为什么要从线性回归转向神经网络?——可以更好地处理高维数据。神经网络可以拥有更好的表达能力,比如:对于线性不可分的问题(XOR,异或),可以通过神经网络解决。

  • 前馈(feedforward):神经网络一端连接着一个观察值的特征值,另一端连接着对应的目标值(比如观察值的分类)。观察值的特征值在网络中向前传播,每经过一层,网络都会对特征值进行转换,目标是让最后的输出与目标值相同。“前馈”这个名字就源于此。

  • 前向传播(forward propagatiion):一个观察值(更常见的是一组观察值的集合,即批次batch)被传给神经网络,它的输出值就会被拿来用损失函数与观察值的真实值进行比较。这个过程叫前向传播。

  • 反向传播(backward propagation):前向传播后,算法“向后”在神经网络中传播,识别出每个参数对预测值和真实值之间的差异的影响程度,这个过程叫做反向传播。对于每一个参数,优化算法则考虑如何调整权重值来改善输出。

  • epoch:所有观察值都通过网络传递一次就称为一个epoch,通过epoch迭代更新参数的值。



附送电脑桌面壁纸一张~



【机器学习笔记】Week4的评论 (共 条)

分享到微博请遵守国家法律