(强推|双字)2022吴恩达机器学习Deeplearning.ai课程


对于0/1分类问题,因为只有只有两种结果,所以这通过一个叫sigmoid函数来对原本的函数进行特征变换让其能够表现出二元分类的明显特征。
过拟合问题:
对训练数据过于精确的预测从而失去泛用性便是过拟合问题。

上图便是欠拟合和过拟合所导致的问题,欠拟合导致训练出来的模型并不理想,过拟合则是过于理想以至于泛用性大幅下降。
解决过拟合问题:

方法1:获取更多的训练数据。

方法2:减少特征,选取一些重要的特征丢弃一些不必要的特征从而降低过拟合的问题。

方法三:正则化,正则化就是将一些特征的参数尽可能的变小,让其对整个训练网络不用产生过大的影响。
正则化:
正则化就是对某个特征进行惩罚控制,以免其造成整体模型的过拟合现象。

通过对成本函数中加入对某些特征的惩罚部分,即正则化项,从而达到对某些特征的大小限制从而完成对整体的过拟合的修正。

正则化应用线性回归:

在线性成本函数中添加正则化项。

在分类成本函数终会添加正则化项。
神经网络经典特例:

通过不断的提取图片的特征让其进行组合聚集,最后输出图片是某某人的概率。
神经网络中的网络层:

如何选择输出层的激活函数:

二分类问题就选择sigmoid函数,回归问题就选择线性激活函数和ReLU函数。
对于隐藏层的激活函数:

主要使用ReLU函数和sigmoid函数,其中绝大多数使用ReLU函数,因为其在神经网络中训练的速度快一些。
为什么模型需要激活函数

多分类问题

使用softmax激活函数进行解决。
在网络模型中应用softmax

softmax改进:
