另外两个回归模型:Lasso和Ridge

同样来自哥大的工程课程machine learning,这是一堂由IBM的首席研究员讲授的机器学习课程。数据和背景其实和上一篇是在R中用Dyplr Rename是一样的。
先丢数学公式上的对比:

用人类可以听懂的话来说,就是这两个回归的算法,用了两种不同的方法进一步规范了缩小误差的方式。这两个方法,一个是利用新增的“惩罚项”的参数的平方(L2),一个则是这些参数的绝对值(L1) ,来让损失函数更加严格(你算得不太行,我就要惩罚你,你的标准也就更严格了)。
现在我们就在R里面用两个方法实现最小化的RMSE吧~
Ridge:

Lasso:

岭回归放弃了部分精度,以更好地拟合有缺陷的数据集,这比普通回归更实用。
Lasso通常适用于具有高维度的大型数据集。它可以选择最相关的变量并完成其工作,上图就显示部分变量是没有系数的,意味着它们不参与拟合。这个话题我们后续会在python内容中进行展开。