欢迎光临散文网 会员登陆 & 注册

1.2 卷积神经网络基础补充

2022-04-28 22:12 作者:小清舍  | 我要投稿

卷积神经网络基础补充


误差的计算

例子



经过softmax处理后所有输出节点概率和为1

交叉熵损失

实例

默认log以e为底

损失公式


误差反向传播




权重的更新


在实际应用中往往不可能一次性将所有数据载入内存(算力也不够),所以只能分批次(batch)训练。

ImageNet项目是一个用于视觉对象识别软件研究的大型可视化数据库。超过1400万的图像被ImageNet手动注释,以指示图片中的对象

若使用整个样本集进行求解损失梯度指向全局最优方向

若使用分批次样本进行求解,损失梯度指向当前批次最优方向,训练过程更不平稳

优化器(optimazer)

使网络得到更快的收敛

SDG优化器(Stochastic Gradient Descent)

缺点:易受样本噪声影响,可能陷入局部最优解

2.SGD+Momentum优化器

Adagrad优化器(自适应学习率)

RMSProp优化器(自适应学习率)

Adam优化器(自适应学习率)

几个优化器的比较


1.2 卷积神经网络基础补充的评论 (共 条)

分享到微博请遵守国家法律