欢迎光临散文网 会员登陆 & 注册

【官方双语】深度学习之梯度下降法 Part 2 ver 0.9 beta

2022-03-17 17:32 作者:我真不是在点赞  | 我要投稿

1复习


03:16


偏置值用于控制元的激活难度



2未训练的网络


03:40


未训练的网络 = 权重乱分布 = 看到3 认为它既是7又是8


3代价 【重要】


03:59


代价 即 用方差计算结果与理想值的距离.。

第二行是我们的理想值,我们希望机器输出的激活值是:除第4个元为1外,其余均为0



04:25


代价的均值 可 判断神经网络的 能力

均值越大,能力越差



4调整 【重要】


05:36


通过调整权重,使代价均值越小,又

神经网络是自变量为n个权重的,输出值为σ

的n维函数,


此时,问题转化为求n维函数最值问题


学过多元函数的同学到这就懂了




5神经网络的黑箱性


11:14


神经网络的真相:黑箱


14:59


神经网络第一层并不像p1那样,把每个笔画识别出来,实际识别的东西像一坨烂泥

识别原理在:附录1


15:34


因此它能把一坨噪声当成数字



附录1

神经网络实际的工作:

不断地通过扫描图中是否具有某种特征,给扫过的区域打分

打分结果如下:

红的代表不像,蓝的代表像


14:36





【官方双语】深度学习之梯度下降法 Part 2 ver 0.9 beta的评论 (共 条)

分享到微博请遵守国家法律