Lasso算法

维基百科,自由的百科全书
跳到导航 跳到搜索

统计学机器学习中,Lasso算法(英语:least absolute shrinkage and selection operator,又译最小绝对值收敛和选择算子、套索算法)是一种同时进行特征选择正则化(数学)的回归分析方法,旨在增强统计模型的预测准确性和可解释性,最初由斯坦福大学统计学教授Robert Tibshirani英语于1996年基于Leo Breiman非负参数推断(Nonnegative Garrote, NNG)提出[1][2]。Lasso算法最初用于计算最小二乘法模型,这个简单的算法揭示了很多估计量的重要性质,如估计量岭回归(Ridge regression,也叫吉洪诺夫正则化)和最佳子集选择的关系,Lasso系数估计值(estimate)和软阈值(soft thresholding)之间的联系。它也揭示了当协变量共线时,Lasso系数估计值不一定唯一(类似标准线性回归)。

虽然最早是为应用最小二乘法而定义的算法,lasso正则化可以简单直接地拓展应用于许多统计学模型上,包括广义线性模型广义估计方程成比例灾难模型M-估计[3][4]。Lasso选择子集的能力依赖于限制条件的形式并且有多种表现形式,包括几何学贝叶斯统计,和凸分析

Lasso算法与基追踪降噪联系紧密。

历史来源

Robert Tibshirani最初使用Lasso来提高预测的准确性与回归模型的可解释性,他修改了模型拟合的过程,在协变量中只选择一个子集应用到最终模型中,而非用上全部协变量。这是基于有着相似目的,但方法有所不同的Breiman的非负参数推断。

在Lasso之前,选择模型中协变量最常用的方法是移步选择,这种方法在某些情况下是准确的,例如一些协变量与模型输出值有强相关性情况。然而在另一些情况下,这种方法会让预测结果更差。在当时,岭回归是提高模型预测准确性最常用的方法。岭回归可以通过缩小大的回归系数来减少过拟合从而改善模型预测偏差。但是它并不选择协变量,所以对模型的准确构建和解释没有帮助。

Lasso结合了上述的两种方法,它通过强制让回归系数绝对值之和小于某固定值,即强制一些回归系数变为0,有效地选择了不包括这些回归系数对应的协变量的更简单的模型。这种方法和岭回归类似,在岭回归中,回归系数平方和被强制小于某定值,不同点在于岭回归只改变系数的值,而不把任何值设为0。

基本形式

Lasso最初为了最小二乘法而被设计出来,Lasso的最小二乘法应用能够简单明了地展示Lasso的许多特性。

假设一个样本包括N种事件,每个事件包括p个协变量和一个输出值。让为输出值,并且为第i种情况的协变量向量,那么Lasso要计算的目标方程就是:

对所有 ,计算 [1]

这里 是一个决定规则化程度的预定的自由参数。 设协方差矩阵,那么 ,其中 的第 i 行,那么上式可以写成更紧凑的形式:

对所有 ,计算

这里 是标准 范数维的1的向量。

因为 ,所以有

对变量进行中心化是常用的数据处理方法。并且协方差一般规范化为 ,这样得到的解就不会依赖测量的规模。

它的目标方程还可以写为:

以所谓的拉格朗日形式

之间的确切关系 与数据有关。

正交协变量

现在可以考虑套索估计器的一些基本属性。

首先假设协变量是正交的,这样,在哪里 内在产物Kronecker三角洲,或者等效地,,那么使用次梯度方法可以证明

[1]

之所以称为“软阈值运算符”,是因为它会将值转换为零(如果足够小,则使它们精确为零),而不是将较小的值设置为零,而将较大的值保持不变,通常称为“硬阈值运算符”。 , 将。

可以将其与岭回归进行比较,后者的目标是最大程度地减少

屈服

因此,岭回归将所有系数收缩为一个均匀因子 并且不会将任何系数设置为零。

也可以将其与具有最佳子集选择的回归进行比较,其目的是最大程度地减少

哪里 是个 ” 规范”,定义为 如果z的m个分量恰好为非零。在这种情况下,可以证明

哪里 是所谓的硬阈值函数, 是一个指标函数(如果其参数为true,则为1,否则为0)。

因此,套索估计值共享来自岭和最佳子集选择回归的估计特征,因为它们既缩小了所有系数的大小(如岭回归),又像最佳子集选择情况一样将其中一些系数设置为零。此外,尽管ridge回归将所有系数按恒定因子缩放,但套索反而会将系数按恒定值向零转化,如果达到则将其设置为零。

相关协变量

回到一般情况,其中不同的协变量可能不是独立的,可以考虑一种特殊情况,其中对于每种情况,两个协变量(即jk)相同,因此,在哪里 然后的值最小化套索目标函数的值不是唯一确定的。其实如果有什么解决办法 在其中 ,如果 更换 通过 通过 ,同时保留所有其他 固定后,给出了新的解决方案,因此套索目标函数具有有效的最小化函数的连续体。[5]套索的几种变体,包括弹性网,已被设计来解决这一缺点,下面将对此进行讨论。


一般形式

算法解释

参见

参考文献

  1. ^ 罗伯特·蒂布希拉尼(Tibshirani)。1996年。“通过套索进行回归收缩和选择”。皇家统计学会杂志。系列B(方法)58(1)。威利:267–88。http://www.jstor.org/stable/2346178
  2. 布雷曼,狮子座。使用非负Garrote更好的子集回归技术计量学。1995年11月1日,37(4):373-384。ISSN 0040-1706doi:10.2307 / 1269730 
  3. 罗伯特·蒂布希尔尼(Tibshirani)。通过套索进行回归收缩和选择皇家统计学会杂志。系列B(方法论)。1996年,58(1):267-288。 
  4. 罗伯特·蒂布希尔尼(Tibshirani)。Cox模型中变量选择的套索方法医学统计学。1997年2月28日,16(4):385-395。ISSN 1097-0258doi:10.1002 /(sici)1097-0258(19970228)16:4%3C385 :: aid-sim380%3E3.0.co; 2-3 (英语) []
  5. 引用错误:没有为名为Zou 2005的参考文献提供内容