LASSO回归与L1正则化 西瓜书「建议收藏」

1.结构风险与经验风险在支持向量机部分,我们接触到松弛变量,正则化因子以及最优化函数,在朴素贝叶斯分类,决策树我们也遇到类似的函数优化问题。其实这就是结构风险和经验风险两种模型选择策略,经验风险负责最小化误差,使得模型尽可能的拟合数据,而结构风险则负责规则化参数,使得参数的形式尽量简洁,从而达到防止过拟合的作用.所以针对常见模型,我们都有下式:                           …

大家好,又见面了,我是你们的朋友全栈君。

1.结构风险与经验风险

在支持向量机部分,我们接触到松弛变量,正则化因子以及最优化函数,在朴素贝叶斯分类,决策树我们也遇到类似的函数优化问题。其实这就是结构风险和经验风险两种模型选择策略,经验风险负责最小化误差,使得模型尽可能的拟合数据,而结构风险则负责规则化参数,使得参数的形式尽量简洁,从而达到防止过拟合的作用.所以针对常见模型,我们都有下式:

                                                        LASSO回归与L1正则化 西瓜书「建议收藏」

第一项经验风险L(yi,f(xi,w))衡量真实值与预测值之间的误差,第二项结构风险Ω(w)规则化项使得模型尽可能简单.而第二项Ω(w)一般是模型复杂度的单调函数,模型越复杂,则规则化项的值越大,这里常引入范数作为规则化项,这也就引入了我们常见的L0范数,L1范数以及L2范数.

2.L0范数,L1范数,L2范数与LASSO回归,岭回归

1)广义定义

                L0范数 LASSO回归与L1正则化 西瓜书「建议收藏」 : 向量中非零元素的个数.

                L1范数 LASSO回归与L1正则化 西瓜书「建议收藏」:向量中各个元素绝对值之和

                L2范数 LASSO回归与L1正则化 西瓜书「建议收藏」:向量各元素平方和然后求平方根

L0,L1范数可以实现稀疏化,而L1系数因为有比L0更好的特性而被广泛应用,L2范数在回归里就是岭回归,也叫均值衰减,常用于解决过拟合,通过对向量各元素平方和再求平方根,使得L2范数最小,从而使得参数W的各个元素都接近于0,与L1范数不同,L2范数规划后w的值会接近于0但不到0,而L1范数规范后则可能令w的一些值为0,所以L1范数规范在特征选择中经常用到,而L2范数在参数规则化时经常用到.在回归模型中,通过添加L1,L2范数引入正则化项,便得到了LASSO回归和岭回归:

2)回归模型

常见线性模型回归:

                                                                    LASSO回归与L1正则化 西瓜书「建议收藏」

LASSOO回归:

                                                                    LASSO回归与L1正则化 西瓜书「建议收藏」

岭回归:

                                                                    LASSO回归与L1正则化 西瓜书「建议收藏」

3.嵌入式选择与LASSO回归

这里主要针对西瓜书第11节的内容,对近端梯度下降PGD法解决L1正则化问题进行讨论.

1)优化目标

表示微分算子,对优化目标:

                                                                     LASSO回归与L1正则化 西瓜书「建议收藏」

若f(x)可导,且f 满足L-Lipschitz(利普希茨连续条件),即存在常数L>0使得:

                                                        LASSO回归与L1正则化 西瓜书「建议收藏」

2)泰勒展开

则在Xk处我们可以泰勒展开:

                                                LASSO回归与L1正则化 西瓜书「建议收藏」

上式是严格相等,由L-Lipschitz条件我们可以看到:

                                                                    LASSO回归与L1正则化 西瓜书「建议收藏」

这里给出了一个L的下界,且下界的形式与二阶导函数形式类似,从而泰勒展开式的二阶导便通过L替代,从而严格不等也变成了近似:

                                                   LASSO回归与L1正则化 西瓜书「建议收藏」

3)简化泰勒展开式

接下来我们化简上式:

                                       LASSO回归与L1正则化 西瓜书「建议收藏」

                                LASSO回归与L1正则化 西瓜书「建议收藏」LASSO回归与L1正则化 西瓜书「建议收藏」

                                LASSO回归与L1正则化 西瓜书「建议收藏」

其中φ(xk)是与x无关的const常数.

                                                              LASSO回归与L1正则化 西瓜书「建议收藏」

4)简化优化问题

这里若通过梯度下降法对f(x)进行最小化,则每一步下降迭代实际上等价于最小化二次函数f(x),从而推广到我们最上面的优化目标,类似的可以得到每一步的迭代公式:

                                                LASSO回归与L1正则化 西瓜书「建议收藏」

令  

                                                                      LASSO回归与L1正则化 西瓜书「建议收藏」

则我们可以先计算z,再求解优化问题:

                                                            LASSO回归与L1正则化 西瓜书「建议收藏」

5)求解

令xi为x的第i个分量,将上式展开可以看到没有xixj(x≠j)的项,即x的各分量互不影响,所以优化目标有闭式解.这里对于上述优化问题求解需要用到Soft Thresholding软阈值函数,其解为:

                                                            LASSO回归与L1正则化 西瓜书「建议收藏」

对于本例,带入求解即得:

                                                            LASSO回归与L1正则化 西瓜书「建议收藏」

因此,PGD能使LASSO和其他基于L1范数最小化的方法得以快速求解.

4.Soft Thresholding软阈值函数证明

1)软阈值函数

上式求解用到了软阈值函数,下面对软阈值函数的解进行求证,从而更好理解上述求解过程.

先看一下软阈值函数:

                                                           LASSO回归与L1正则化 西瓜书「建议收藏」

2)证明

Proof:

对于优化问题:

                                                                    LASSO回归与L1正则化 西瓜书「建议收藏」

此处X,Z均为n维向量.

展开目标函数:

      LASSO回归与L1正则化 西瓜书「建议收藏」

LASSO回归与L1正则化 西瓜书「建议收藏」LASSO回归与L1正则化 西瓜书「建议收藏」

从而优化问题变为求解N个独立的函数

                                                                        LASSO回归与L1正则化 西瓜书「建议收藏」

这是我们常见的二次函数,对其求导

                                                                    LASSO回归与L1正则化 西瓜书「建议收藏」

令导数为0:

                                                                            LASSO回归与L1正则化 西瓜书「建议收藏」

看到两边都有x,所以我们要对上述情况进行讨论:

A.z>λ/2时

假设 x<0 ,   所以  sign(x)=-1 ,但 z-λ/2sign(x)>0 ,所以矛盾.

假设 x>0 ,所以  sign(x) = 1,z-λ/2sign(x)>0,所以极小值在x>0 取得1.

此时极小值小于f(0):

                                            LASSO回归与L1正则化 西瓜书「建议收藏」

再看x<0,

                                      LASSO回归与L1正则化 西瓜书「建议收藏」

                                                LASSO回归与L1正则化 西瓜书「建议收藏」

所以f(x)在负无穷到0单调递减,所以最小值在z-λ/2处取得.

B.z<-λ/2时

假设 x<0 ,   所以  sign(x)=-1 ,z-λ/2sign(x)<0 ,所以极值点在 x<0 处取得.

假设 x>0 ,所以  sign(x) = 1,z-λ/2sign(x)<0,所以矛盾.

此时极值小于f(0):

                                              LASSO回归与L1正则化 西瓜书「建议收藏」

再看 x>0 ,

                                        LASSO回归与L1正则化 西瓜书「建议收藏」

                                                  LASSO回归与L1正则化 西瓜书「建议收藏」

所以f(x)在0到正无穷单调递增,所以最小值在z+λ/2处取得.

C.λ/2<z<λ/2时

假设 x<0 ,   所以  sign(x)=-1 ,z-λ/2sign(x)>0 ,所以矛盾.

假设 x>0 ,所以  sign(x) = 1,z-λ/2sign(x)<0,所以矛盾.

所以x>0,x<0均不满足条件.

所以有:

                                                                LASSO回归与L1正则化 西瓜书「建议收藏」

                                                                        LASSO回归与L1正则化 西瓜书「建议收藏」

                                                                  LASSO回归与L1正则化 西瓜书「建议收藏」

                                                                  LASSO回归与L1正则化 西瓜书「建议收藏」

当△x>0时,由条件z<λ/2:

                                                                LASSO回归与L1正则化 西瓜书「建议收藏」

                                                            LASSO回归与L1正则化 西瓜书「建议收藏」

                                                            LASSO回归与L1正则化 西瓜书「建议收藏」

当△x<0时,由条件z<λ/2:

                                                                LASSO回归与L1正则化 西瓜书「建议收藏」

                                                            LASSO回归与L1正则化 西瓜书「建议收藏」

                                                            LASSO回归与L1正则化 西瓜书「建议收藏」

所以在0处取极小值,同时也是最小值.

综合以上三种情况:

                                                                  LASSO回归与L1正则化 西瓜书「建议收藏」

3)对应西瓜书的L1正则化与LASSO回归

这里的解对应的优化问题是:

                                                                    LASSO回归与L1正则化 西瓜书「建议收藏」

而我们PGD优化的问题是:

                                                                LASSO回归与L1正则化 西瓜书「建议收藏」

对上式同乘2/L不影响极值点位置的选取,所以我们的PGD优化问题变成:

                                                                LASSO回归与L1正则化 西瓜书「建议收藏」

带入综合三种情况的到的最终解:

                                                                LASSO回归与L1正则化 西瓜书「建议收藏」

西瓜书上11.14也就得证了~

总结:

终于看完了西瓜书11章特征选择与稀疏学习,发现从头至尾都在提到用LASSO解决问题,所以就结合第六章的正则化和之前的模型评价,对正则化范数以及LASSO重新认识了一下,书中解决LASSO的大致方法就是通过利普希茨连续条件得到L,带入到优化函数中对函数简化变形,简易优化函数,然后通过软阈值函数得到最后的解.LASSO大致就是这些了,有问题欢迎大家交流~

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/128098.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • Rancher部署报错状态一直restarting

    Rancher部署报错状态一直restarting

    2021年5月30日
    690
  • Mysql创建新用户方法

    1.CREATE USER语法:CREATE USER 'username'@'host' IDENTIFIED&#160

    2021年12月27日
    39
  • python3 typing_python类型注解

    python3 typing_python类型注解typing介绍Python是一门弱类型的语言,很多时候我们可能不清楚函数参数的类型或者返回值的类型,这样会导致我们在写完代码一段时间后回过头再看代码,忘记了自己写的函数需要传什么类型的参数,返回什

    2022年7月29日
    14
  • PID算法原理 一图看懂PID的三个参数

    PID算法原理 一图看懂PID的三个参数找了好久这一篇算是很容易看懂的了推荐给大家写的十分清楚原文作者DF创客社区virtualwizLZ以前有个小小的理想,就是让手边的MCU自己“思考”起来,写出真正带算法的程序。前段时间做一个比赛项目的过程中,对经典、实用的PID算法有了一点点自己的理解,就写了这些,与大家分享因为LZ想尽办法,试着用最易于理解的语言说清楚原理,不做太多的理论分析。(LZ文学功底不行),所以…

    2022年6月5日
    149
  • asp.net mvc实现文件下载「建议收藏」

    asp.net mvc实现文件下载「建议收藏」前段时间一直对如何解决文件下载的问题比较困惑,对文件下载的问题一直都是用的前端的方式解决的,代码如下//下载functiondownload(filePath){window.open(filePath);}但是这个方法有他的缺陷:1.下载的文件后缀必须为iis程序池中存在的文件2.此方法是通过浏览器打开服务器文件,无法直接下载近期看了asp.net下载文件几种方式…

    2022年7月22日
    16
  • seekg()与tellg()用法详解

    seekg()与tellg()用法详解对输入流操作:seekg()与tellg()对输出流操作:seekp()与tellp()下面以输入流函数为例介绍用法:seekg()是对输入文件定位,它有两个参数:第一个参数是偏移量,第二个参数是基地址。对于第一个参数,可以是正负数值,正的表示向后偏移,负的表示向前偏移。而第二个参数可以是:ios::beg:表示输入流的开始位置ios::cur:表示输入流的当前位置ios::end:表示输入流的结束位置tellg()函数不需要带参数,它返回当前定位指针的位置,也代表着输入流的大小。假设

    2022年6月5日
    53

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号