学习分享一年,对神经网络的理解全都在这40分钟里了


08:59

第一公设:
10:32


- 高中学的点线距
- 范数是一种变元为向量的标量函数,本质上也是函数
- SVM

第二公设:
12:25

第三公设:
14:32

16:01

19:49

万能逼近定理,
21:49

- 激活函数必须是非线性的

- 总之是神经网络的复杂性来自于激活函数
- 激活函数是让他增加复杂度 增加拟合的可能性
为什么增加神经元
25:05

26:31


- 这里对yhat进行指数操作,其实是一个很常见的技巧;他会把y hat 从实数域投射到0到+∞;


28:38

神经网络层数
30:23

- 隐藏层越深,抽象程度越高
32:35
之后就是讲解梯度下降法了