【官方双语】深度学习之梯度下降法 Part 2 ver 0.9 beta

1复习
03:16
偏置值用于控制元的激活难度
2未训练的网络
03:40
未训练的网络 = 权重乱分布 = 看到3 认为它既是7又是8
3代价 【重要】
03:59
代价 即 用方差计算结果与理想值的距离.。

第二行是我们的理想值,我们希望机器输出的激活值是:除第4个元为1外,其余均为0
04:25
代价的均值 可 判断神经网络的 能力
均值越大,能力越差
4调整 【重要】
05:36
通过调整权重,使代价均值越小,又
神经网络是自变量为n个权重的,输出值为σ
的n维函数,
此时,问题转化为求n维函数最值问题
学过多元函数的同学到这就懂了
5神经网络的黑箱性
11:14
神经网络的真相:黑箱
14:59
神经网络第一层并不像p1那样,把每个笔画识别出来,实际识别的东西像一坨烂泥
识别原理在:附录1
15:34
因此它能把一坨噪声当成数字
附录1
神经网络实际的工作:
不断地通过扫描图中是否具有某种特征,给扫过的区域打分

打分结果如下:

红的代表不像,蓝的代表像
14:36