欢迎光临散文网 会员登陆 & 注册

另外两个回归模型:Lasso和Ridge

2023-03-31 22:52 作者:时晴charles  | 我要投稿


同样来自哥大的工程课程machine learning,这是一堂由IBM的首席研究员讲授的机器学习课程。数据和背景其实和上一篇是在R中用Dyplr Rename是一样的。


先丢数学公式上的对比:


用人类可以听懂的话来说,就是这两个回归的算法,用了两种不同的方法进一步规范了缩小误差的方式。这两个方法,一个是利用新增的“惩罚项”的参数的平方(L2),一个则是这些参数的绝对值(L1) ,来让损失函数更加严格(你算得不太行,我就要惩罚你,你的标准也就更严格了)。

现在我们就在R里面用两个方法实现最小化的RMSE吧~ 

Ridge:

Lasso: 

岭回归放弃了部分精度,以更好地拟合有缺陷的数据集,这比普通回归更实用。

Lasso通常适用于具有高维度的大型数据集。它可以选择最相关的变量并完成其工作,上图就显示部分变量是没有系数的,意味着它们不参与拟合。这个话题我们后续会在python内容中进行展开。

另外两个回归模型:Lasso和Ridge的评论 (共 条)

分享到微博请遵守国家法律