背景
在机器学习中,无论是分类还是回归,都可能存在由于特征过多而导致的过拟合问题。当然解决的办法有
(1)减少特征,留取最重要的特征。
(2)惩罚不重要的特征的权重,即降低不重要特征的权重。
但是通常情况下,我们不知道应该惩罚哪些特征的权重取值。通过正则化方法可以防止过拟合,提高泛化能力。
介绍

然后得到梯度下降的表达式如下


也就是说权值进行了衰减。那么为什么权值衰减就能防止overfitting呢 ?
首先,我们要知道一个法则-奥卡姆剃刀,用更少的东西做更多事。从某种意义上说,更小的权值就意味着模型的复杂度更低,对数据的拟合更好。接下来,引用知乎上的解释。
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/220855.html原文链接:https://javaforall.net
