欢迎光临散文网 会员登陆 & 注册

人工智能AI面试题-3.26机器学习中的正则化究竟是什么?

2023-10-13 20:56 作者:机器爱上学习  | 我要投稿

3.26 机器学习中的正则化究竟是什么? 在各种文献和资料中,我们经常会见到正则化这个术语,尤其是在讨论一般的目标函数时,它通常包含以下两项: 1. 误差/损失函数(激励模型拟合训练数据,减少偏差)。 2. 正则化项(鼓励模型保持简单性,减少过拟合风险,提高模型的稳定性)。 但是一直没有一篇清晰地解释什么是正则化的文章。要理解正则化,我们需要从过拟合问题开始讨论。 **1) 过拟合问题** 让我们从一个具体的例子开始,比如线性回归中的房价问题: a) 欠拟合(underfitting,也称为高偏差): b) 适当拟合: c) 过拟合(overfitting,也称为高方差): **什么是过拟合(Overfitting)?** 当我们有大量特征时,模型可能会在训练集上表现得非常好,但在新数据上的预测性能很差。这是典型的过拟合情况。为了解决过拟合问题,我们通常考虑以下两种途径: **a) 减少特征数量:**   - 人工选择要保留的特征。   - 使用适当的特征选择算法。    **b) 正则化:**   - 保留所有特征,但降低参数的值。   - 正则化的好处在于,当特征数量很多时,每个特征都会对预测产生适当的影响,从而防止过拟合。 如上图所示,红色的曲线代表过于复杂、上下波动剧烈的情况,这就是过拟合。结合图示和正则化的定义,我们可以将正则化视为对目标函数增加了一些规则(限制),以防止其自我膨胀,防止无规律地上下波动,以保持合理的行为。 **L1正则化和L2正则化** 在机器学习中,损失函数后面经常会添加一个额外项。这个额外项通常有两种,英文称为`ℓ1-norm`和`ℓ2-norm`,中文称为L1正则化和L2正则化。它们可以看作是对损失函数的一种惩罚项。 - L1正则化和L2正则化可以看作是对模型参数的一种限制。对于线性回归模型,使用L1正则化的模型被称为Lasso回归,使用L2正则化的模型被称为Ridge回归(岭回归)。 **L1正则化和L2正则化的区别:** - L1正则化是参数权重向量w中各个元素的绝对值之和,通常表示为`α|w|`。 - L2正则化是参数权重向量w中各个元素的平方和再开平方根,通常表示为`α||w||2`。 一般来说,正则化项前面都会有一个系数,通常用α表示。这个系数由用户指定。 **为什么要添加L1和L2正则化?** - L1正则化可以产生稀疏权重矩阵,即产生一个稀疏模型,可用于特征选择。 - L2正则化可以防止模型过拟合。同时,L1正则化也可以一定程度上防止过拟合。 **稀疏模型与特征选择** 稀疏模型是指大部分权重为零的模型,只有少数权重是非零值的模型。这对于特征选择非常有用。当模型变得稀疏时,意味着只有少数特征对模型的贡献很大,大多数特征对模型几乎没有影响。这使得我们可以只关注那些具有非零权重的特征,从而实现特征选择的目标。 **正则化和特征选择** 正则化的引入相当于对模型的参数设定了一个先验(贝叶斯观点)。L1正则化对应Laplace先验,L2正则化对应高斯先验,它们由参数σ确定。在数据量较小的情况下,先验知识可以防止过拟合。 **总结** 正则化是机器学习中的一种重要概念,通过对目标函数增加一些限制,它有助于防止过拟合、产生稀疏模型和实现特征选择。L1正则化和L2正则化是两种常用的正则化方法,它们在防止过拟合和稀疏性方面有不同的效果。选择适当的正则化方法和参数是构建高性能机器学习模型的关键一步。希望这个解释能帮助你更好地理解正则化的核心概念。😊👨‍💻📚

人工智能AI面试题-3.26机器学习中的正则化究竟是什么?的评论 (共 条)

分享到微博请遵守国家法律