cs231n第3课:线性分类器2,梯度下降
点击下一个视频,第三节课:
怎么评估scores 好坏?loss 函数:
svm loss
softmax loss

regularization:
最佳w不是唯一的,添加regularization可以让w变小

让score变好(优化w)怎么做?W的优化过程 = 梯度下降:
手算梯度 Δ(很蠢,用来校验)
解析梯度(用这个,矩阵求导很难)

俺么昆卡!下节预告:
成为反向传播忍者
神经网络(第一部分)

点击下一个视频,第三节课:
怎么评估scores 好坏?loss 函数:
svm loss
softmax loss
regularization:
最佳w不是唯一的,添加regularization可以让w变小
让score变好(优化w)怎么做?W的优化过程 = 梯度下降:
手算梯度 Δ(很蠢,用来校验)
解析梯度(用这个,矩阵求导很难)
俺么昆卡!下节预告:
成为反向传播忍者
神经网络(第一部分)